Planejamento do Relato dos Resultados da Avaliação da Analise de Tarefas
Introdução
O planejamento do relatório da análise de tarefas é como vamos organizar antecipadamente o documento que vai mostrar o que descobrimos e as conclusões que tiramos ao avaliar o Online Judge. Esse relatório vai seguir o plano que fizemos para a análise de tarefas, garantindo que todas as informações importantes sejam apresentadas de forma clara e organizada. Isso torna mais fácil para as pessoas entenderem e usarem os dados que coletamos ao analisar o Online Judge, o que nos ajuda a identificar maneiras de melhorar a interface do sistema.
Metodologia
A seguir, apresentaremos os tópicos que serão abordados no documento, adaptando a abordagem de Barbosa e Silva (2011) para o nosso contexto. Este documento é parte essencial do nosso processo de avaliação do Online Judge e nos ajudará a entender melhor o desempenho do sistema, bem como aperfeiçoá-lo.este artefato irá seguir os tópicos propostos por Barbosa e Silva (2011)1: Os tópicos a serem tratados incluem:
- Objetivos e escopo da avaliação;
- Método de avaliação empregado;
- Perfil dos participantes selecionados;
- Problemas encontrados;
- Sumário dos dados coletados;
- Análise e interpretação dos dados coletados;
- Feedback do usuário;
- Sugestões de melhoria;
- Planejamento de reprojeto.
Tópicos
** 1. Objetivo e escopo da avaliação**:
Descreveremos o propósito geral e a extensão da avaliação que estamos conduzindo no Online Judge.O avaliador deve elucidar a razão subjacente à condução da avaliação, delineando claramente os propósitos almejados por meio da análise de tarefas. Neste contexto, é crucial fornecer uma visão abrangente da avaliação, delineando os motivos que a fundamentam e delineando as metas estabelecidas para o processo.
** 2. Método de avaliação**:
O método selecionado para a coleta de dados será a entrevista, e um cronograma detalhado foi estabelecido (conforme Tabela 1). Nesse planejamento, cada membro da equipe terá a responsabilidade de entrevistar um usuário e documentar os resultados, seguindo o plano delineado. Durante a entrevista, o entrevistador deverá indicar o diagrama HTA utilizado e especificar a tarefa abordada. Após a execução do cronograma planejado, os resultados são sumarizados no cronograma apresentado na Tabela 2, referente ao artefato "Planejamento do Relato dos Resultados da Análise de Tarefas"
Tabela 1 - Cronograma Planejado.
Entrevistador | Entrevistado | Horário de Início | Horário de Fim | Data | Local |
---|---|---|---|---|---|
Eric Camargo | Luísa Nogueira | 10:50 | 11:00 | 03/11/2023 | Microsoft Teams |
Ester Lino | Pedro Miguel | 10:00 | 10:10 | 03/11/2023 | Microsoft Teams |
Henrique Torres | Josué Teixeira | 15:30 | 15:45 | 08/11/2023 | Microsoft Teams |
Kallyne Macedo | Leonardo Aguiar | 16:10 | 16:20 | 03/11/2023 | Microsoft Teams |
Luana Torres | Ingrid Alves | 18:20 | 18:30 | 01/11/2023 | Microsoft Teams |
Pablo Guilherme | João Pedro Anacleto | 19:00 | 19:10 | 30/10/2023 | Microsoft Teams |
Suzane Duarte | Ana Carolina | 11:10 | 11:20 | 04/11/2023 | Microsoft Teams |
Fonte: Ester Lino.
Tabela 2 - Cronograma Executado.
Entrevistador | Entrevistado | Horário de Início | Horário de Fim | Data | Local |
---|---|---|---|---|---|
Eric Camargo | Luísa Nogueira | 18:15 | 18:25 | 08/11/2023 | Online (gravação pelo Microsoft Teams) |
Ester Lino | Emivalto da Costa | 13:55 | 14:00 | 07/11/2023 | Faculdade do Gama (gravação pelo Microsoft Teams) |
Henrique Torres | Josué Teixeira | 15:55 | 16:05 | 08/11/2023 | Online (gravação pelo Microsoft Teams) |
Kallyne Macedo | Leonardo Aguiar | 16:15 | 16:25 | 03/11/2023 | Gama - DF (gravação pelo Microsoft Teams) |
Luana Torres | Letícia Torres | 09:55 | 10:00 | 08/11/2023 | Faculdade do Gama (gravação pelo Microsoft Teams) |
Pablo Guilherme | João Pedro Anacleto | 13:55 | 14:00 | 07/11/2023 | Faculdade do Gama (gravação pelo Microsoft Teams) |
Suzane Duarte | Ana Carolina | 13:55 | 14:00 | 07/11/2023 | Faculdade do Gama (gravação pelo Microsoft Teams) |
Fonte: Ester Lino.
** 3. Seleção dos participantes**:
Cada entrevistador/avaliador deverá identificar o usuário e justificar a escolha do entrevistado, se ele se encaixa ou não no perfil de usuário definido pelo projeto, a fim de garantir que a avaliação seja realizada com o público alvo do site avaliado Online Judge. O número de participantes definido no Planejamento da Avaliação do Storyboard foi de 7 usuários. Essa escolha é uma relação baseada nos relatos de Dumas e Redish (1999)2, os quais sugerem que para uma avaliação em IHC devem ser recrutados de cinco a doze usuários e no relato de Nielsen (2000)3 que afirma que bastam cinco usuários para realizar a avaliação.
** 4. Problemas e dificuldades encontradas**
Nesta seção do documento, é fundamental que o entrevistador faça um registro detalhado dos problemas e dificuldades específicos que os usuários encontraram durante as entrevistas. Isso requer uma documentação clara e objetiva de cada obstáculo, erro, falha ou desafio enfrentado pelos usuários ao interagir com o sistema ou produto avaliado. Esses problemas devem ser apresentados de forma organizada, de modo que seja fácil entender as questões identificadas.
** 5. Sumários dos principais resultados**
O avaliador deve registrar os dados levantados de maneira clara e resumida, com uma breve descrição se a tarefa foi executada com êxito ou não. Os dados devem ser apresentados por meio de uma tabela e em seguida, deve disponibilizar o link do vídeo da gravação da entrevista.
** 6. Análise e interpretação dos usuários**
O entrevistador deve analisar os dados coletados durante a avaliação das tarefas, buscando padrões e tendências, a fim de obter conclusões relevantes e significativas dessas informações. É preciso também contextualizar os resultados para o escopo definido para a avaliação e considerar os possíveis impactos dessa avaliação para o projeto.
** 7. Feedback dos usuários**
É de suma importância que o entrevistador seja eficaz na coleta do feedback dos usuários que participaram das entrevistas durante a avaliação de tarefas. Isso requer uma escuta atenta às opiniões, sugestões e comentários expressos pelos usuários durante sua interação com o sistema ou produto avaliado. O entrevistador deve documentar de forma completa e precisa o feedback fornecido pelos usuários, levando em consideração suas percepções, experiências e necessidades. Essas informações são de grande valor, pois nos ajudam a compreender as expectativas dos usuários, a identificar os pontos fortes e fracos do sistema e a obter insights valiosos sobre possíveis melhorias. O feedback dos usuários é uma fonte fundamental para aprimorar o sistema e garantir que atenda às necessidades e preferências dos usuários de forma eficaz.
** 8. Sugestões de melhoria**
É de extrema importância que o entrevistador faça um registro completo das sugestões e melhorias com base nos problemas identificados durante a avaliação. Isso significa que devemos documentar de maneira clara e objetiva cada problema encontrado, fornecendo detalhes como o contexto em que ocorreu, a ação realizada pelo usuário, o resultado esperado e o resultado observado. Além disso, como entrevistadores, temos a responsabilidade de propor soluções ou sugestões para corrigir os problemas identificados. Devemos oferecer ideias para ajustes de design, melhorias na interface do usuário ou alterações nas funcionalidades, com o objetivo de aprimorar a experiência do usuário e resolver as questões identificadas. Isso contribuirá para tornar o sistema ou produto mais eficiente e satisfatório para os usuários.
** 9. Planejamento de reprojeto**
Dada a participação de um usuário real nesta avaliação e a identificação de áreas que requerem aprimoramento, pode ser crucial realizar um reprojeto. Esse reprojeto está agendado para ocorrer um dia após a entrevista com o usuário, mantendo a estrutura do projeto original e implementando apenas as alterações necessárias. Na Tabela 3 a seguir, é apresentado um cronograma delineando as etapas do reprojeto.
Tabela 3 - Cronograma do Reprojeto.
Entrevistador | Horário de Início | Horário de Fim | Data |
---|---|---|---|
Eric Camargo | 20:10 | 20:20 | 04/11/2023 |
Ester Lino | 20:10 | 20:20 | 04/11/2023 |
Henrique Torres | 20:10 | 20:20 | 04/11/2023 |
Kallyne Macedo | 20:10 | 20:20 | 04/11/2023 |
Luana Torres | 20:10 | 20:20 | 02/11/2023 |
Pablo Guilherme | 20:10 | 20:20 | 31/10/2023 |
Suzane Duarte | 20:10 | 20:20 | 05/11/2023 |
Fonte: Ester Lino.
Referências bibliográficas
1.BARBOSA, S. D. J.; SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier, 2011.
2.Dumas, J.S. & Redish, J.C. A Practical Guide to Usability Testing, edição revisada. Exeter, UK: Intellect, 1999.
3.Nielsen, J. Why You Only Need to Test with 5 Users, Alertbox. Disponível em http://www.useit.com/alertbox/20000319.html, 2000.
Histórico de versões
Versão | Data | Descrição | Autor(es) | Revisor(es) |
---|---|---|---|---|
1.0 | 30/10/2023 | Criação da página de Relato dos resultados e adicionando o conteúdo dela | Henrique Torres, Eric Camargo | Pablo Guilherme |
1.1 | 30/10/2023 | Adicionando a tabela de reprojeto | Henrique Torres | Eric Camargo |