Pular para conteúdo

Planejamento do Relato dos Resultados da Avaliação da Analise de Tarefas

Introdução

O planejamento do relatório da análise de tarefas é como vamos organizar antecipadamente o documento que vai mostrar o que descobrimos e as conclusões que tiramos ao avaliar o Online Judge. Esse relatório vai seguir o plano que fizemos para a análise de tarefas, garantindo que todas as informações importantes sejam apresentadas de forma clara e organizada. Isso torna mais fácil para as pessoas entenderem e usarem os dados que coletamos ao analisar o Online Judge, o que nos ajuda a identificar maneiras de melhorar a interface do sistema.

Metodologia

A seguir, apresentaremos os tópicos que serão abordados no documento, adaptando a abordagem de Barbosa e Silva (2011) para o nosso contexto. Este documento é parte essencial do nosso processo de avaliação do Online Judge e nos ajudará a entender melhor o desempenho do sistema, bem como aperfeiçoá-lo.este artefato irá seguir os tópicos propostos por Barbosa e Silva (2011)1: Os tópicos a serem tratados incluem:

  • Objetivos e escopo da avaliação;
  • Método de avaliação empregado;
  • Perfil dos participantes selecionados;
  • Problemas encontrados;
  • Sumário dos dados coletados;
  • Análise e interpretação dos dados coletados;
  • Feedback do usuário;
  • Sugestões de melhoria;
  • Planejamento de reprojeto.

Tópicos

** 1. Objetivo e escopo da avaliação**:

Descreveremos o propósito geral e a extensão da avaliação que estamos conduzindo no Online Judge.O avaliador deve elucidar a razão subjacente à condução da avaliação, delineando claramente os propósitos almejados por meio da análise de tarefas. Neste contexto, é crucial fornecer uma visão abrangente da avaliação, delineando os motivos que a fundamentam e delineando as metas estabelecidas para o processo.

** 2. Método de avaliação**:

O método selecionado para a coleta de dados será a entrevista, e um cronograma detalhado foi estabelecido (conforme Tabela 1). Nesse planejamento, cada membro da equipe terá a responsabilidade de entrevistar um usuário e documentar os resultados, seguindo o plano delineado. Durante a entrevista, o entrevistador deverá indicar o diagrama HTA utilizado e especificar a tarefa abordada. Após a execução do cronograma planejado, os resultados são sumarizados no cronograma apresentado na Tabela 2, referente ao artefato "Planejamento do Relato dos Resultados da Análise de Tarefas"

Tabela 1 - Cronograma Planejado.

Entrevistador Entrevistado Horário de Início Horário de Fim Data Local
Eric Camargo Luísa Nogueira 10:50 11:00 03/11/2023 Microsoft Teams
Ester Lino Pedro Miguel 10:00 10:10 03/11/2023 Microsoft Teams
Henrique Torres Josué Teixeira 15:30 15:45 08/11/2023 Microsoft Teams
Kallyne Macedo Leonardo Aguiar 16:10 16:20 03/11/2023 Microsoft Teams
Luana Torres Ingrid Alves 18:20 18:30 01/11/2023 Microsoft Teams
Pablo Guilherme João Pedro Anacleto 19:00 19:10 30/10/2023 Microsoft Teams
Suzane Duarte Ana Carolina 11:10 11:20 04/11/2023 Microsoft Teams

Fonte: Ester Lino.

Tabela 2 - Cronograma Executado.

Entrevistador Entrevistado Horário de Início Horário de Fim Data Local
Eric Camargo Luísa Nogueira 18:15 18:25 08/11/2023 Online (gravação pelo Microsoft Teams)
Ester Lino Emivalto da Costa 13:55 14:00 07/11/2023 Faculdade do Gama (gravação pelo Microsoft Teams)
Henrique Torres Josué Teixeira 15:55 16:05 08/11/2023 Online (gravação pelo Microsoft Teams)
Kallyne Macedo Leonardo Aguiar 16:15 16:25 03/11/2023 Gama - DF (gravação pelo Microsoft Teams)
Luana Torres Letícia Torres 09:55 10:00 08/11/2023 Faculdade do Gama (gravação pelo Microsoft Teams)
Pablo Guilherme João Pedro Anacleto 13:55 14:00 07/11/2023 Faculdade do Gama (gravação pelo Microsoft Teams)
Suzane Duarte Ana Carolina 13:55 14:00 07/11/2023 Faculdade do Gama (gravação pelo Microsoft Teams)

Fonte: Ester Lino.

** 3. Seleção dos participantes**:

Cada entrevistador/avaliador deverá identificar o usuário e justificar a escolha do entrevistado, se ele se encaixa ou não no perfil de usuário definido pelo projeto, a fim de garantir que a avaliação seja realizada com o público alvo do site avaliado Online Judge. O número de participantes definido no Planejamento da Avaliação do Storyboard foi de 7 usuários. Essa escolha é uma relação baseada nos relatos de Dumas e Redish (1999)2, os quais sugerem que para uma avaliação em IHC devem ser recrutados de cinco a doze usuários e no relato de Nielsen (2000)3 que afirma que bastam cinco usuários para realizar a avaliação.

** 4. Problemas e dificuldades encontradas**

Nesta seção do documento, é fundamental que o entrevistador faça um registro detalhado dos problemas e dificuldades específicos que os usuários encontraram durante as entrevistas. Isso requer uma documentação clara e objetiva de cada obstáculo, erro, falha ou desafio enfrentado pelos usuários ao interagir com o sistema ou produto avaliado. Esses problemas devem ser apresentados de forma organizada, de modo que seja fácil entender as questões identificadas.

** 5. Sumários dos principais resultados**

O avaliador deve registrar os dados levantados de maneira clara e resumida, com uma breve descrição se a tarefa foi executada com êxito ou não. Os dados devem ser apresentados por meio de uma tabela e em seguida, deve disponibilizar o link do vídeo da gravação da entrevista.

** 6. Análise e interpretação dos usuários**

O entrevistador deve analisar os dados coletados durante a avaliação das tarefas, buscando padrões e tendências, a fim de obter conclusões relevantes e significativas dessas informações. É preciso também contextualizar os resultados para o escopo definido para a avaliação e considerar os possíveis impactos dessa avaliação para o projeto.

** 7. Feedback dos usuários**

É de suma importância que o entrevistador seja eficaz na coleta do feedback dos usuários que participaram das entrevistas durante a avaliação de tarefas. Isso requer uma escuta atenta às opiniões, sugestões e comentários expressos pelos usuários durante sua interação com o sistema ou produto avaliado. O entrevistador deve documentar de forma completa e precisa o feedback fornecido pelos usuários, levando em consideração suas percepções, experiências e necessidades. Essas informações são de grande valor, pois nos ajudam a compreender as expectativas dos usuários, a identificar os pontos fortes e fracos do sistema e a obter insights valiosos sobre possíveis melhorias. O feedback dos usuários é uma fonte fundamental para aprimorar o sistema e garantir que atenda às necessidades e preferências dos usuários de forma eficaz.

** 8. Sugestões de melhoria**

É de extrema importância que o entrevistador faça um registro completo das sugestões e melhorias com base nos problemas identificados durante a avaliação. Isso significa que devemos documentar de maneira clara e objetiva cada problema encontrado, fornecendo detalhes como o contexto em que ocorreu, a ação realizada pelo usuário, o resultado esperado e o resultado observado. Além disso, como entrevistadores, temos a responsabilidade de propor soluções ou sugestões para corrigir os problemas identificados. Devemos oferecer ideias para ajustes de design, melhorias na interface do usuário ou alterações nas funcionalidades, com o objetivo de aprimorar a experiência do usuário e resolver as questões identificadas. Isso contribuirá para tornar o sistema ou produto mais eficiente e satisfatório para os usuários.

** 9. Planejamento de reprojeto**

Dada a participação de um usuário real nesta avaliação e a identificação de áreas que requerem aprimoramento, pode ser crucial realizar um reprojeto. Esse reprojeto está agendado para ocorrer um dia após a entrevista com o usuário, mantendo a estrutura do projeto original e implementando apenas as alterações necessárias. Na Tabela 3 a seguir, é apresentado um cronograma delineando as etapas do reprojeto.

Tabela 3 - Cronograma do Reprojeto.

Entrevistador Horário de Início Horário de Fim Data
Eric Camargo 20:10 20:20 04/11/2023
Ester Lino 20:10 20:20 04/11/2023
Henrique Torres 20:10 20:20 04/11/2023
Kallyne Macedo 20:10 20:20 04/11/2023
Luana Torres 20:10 20:20 02/11/2023
Pablo Guilherme 20:10 20:20 31/10/2023
Suzane Duarte 20:10 20:20 05/11/2023

Fonte: Ester Lino.

Referências bibliográficas

1.BARBOSA, S. D. J.; SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier, 2011.

2.Dumas, J.S. & Redish, J.C. A Practical Guide to Usability Testing, edição revisada. Exeter, UK: Intellect, 1999.

3.Nielsen, J. Why You Only Need to Test with 5 Users, Alertbox. Disponível em http://www.useit.com/alertbox/20000319.html, 2000.

Histórico de versões

Versão Data Descrição Autor(es) Revisor(es)
1.0 30/10/2023 Criação da página de Relato dos resultados e adicionando o conteúdo dela Henrique Torres, Eric Camargo Pablo Guilherme
1.1 30/10/2023 Adicionando a tabela de reprojeto Henrique Torres Eric Camargo