Planejamento da Avaliação da Análise de Tarefas
Introdução
A avaliação é fundamental para garantir que o sistema atenda aos padrões de qualidade esperados e promova uma experiência satisfatória para os usuários. Este planejamento tem como objetivo realizar uma avaliação da análise de tarefas do site Cinemark.com. Para isso, serão conduzidas entrevistas com usuários reais, baseando-se nos perfis previamente definidos. Essa abordagem permitirá identificar problemas e elucidar melhorias na análise de tarefas, garantindo sua adequação às necessidades reais dos usuários.
Os HTAs disponíveis para análise incluem:
- Compra de Vouchers Corporativos.
- Reserva de Salas.
- Compra de Ingressos e Combos.
- Cadastro no Cinemark Club.
Além disso, a tarefa de cancelamento de compra será abordada como uma lacuna a ser preenchida com informações obtidas durante a avaliação.
Metodologia
A metodologia segue o framework DECIDE, onde cada etapa é detalhada a seguir:
Letra | Definição |
---|---|
D | Determinar os objetivos da avaliação. |
E | Explorar perguntas a serem respondidas com a avaliação. |
C | Escolher os métodos de avaliação a serem utilizados. |
I | Identificar e administrar as questões práticas da avaliação. |
D | Decidir como lidar com as questões éticas. |
E | Avaliar, interpretar e apresentar os dados. |
Fonte: Ana Joyce.
D - Objetivos
Os objetivos desta avaliação são:
- Verificar a conformidade dos artefatos produzidos na análise de tarefas do site Cinemark.com com padrões e boas práticas estabelecidas.
- Identificar problemas ou lacunas no fluxo de tarefas descrito.
- Coletar sugestões de melhorias diretamente dos usuários para aprimorar as tarefas analisadas.
- Coletar informações para desenvolver ou revisar o fluxo de cancelamento de compra.
E - Explorar Perguntas Respondidas com a Avaliação
Com base nos objetivos definidos, as perguntas exploradas na avaliação incluem:
- As tarefas analisadas representam corretamente as funcionalidades esperadas para o site?
- Os diagramas estão devidamente documentados, com notações, legendas e tabelas?
- O fluxo das tarefas descritas no artefato está alinhado com a experiência real dos usuários?
- Existem melhorias ou alternativas de design identificadas pelos usuários durante a avaliação?
C - Escolher os Métodos de Avaliação
A avaliação será conduzida por meio de:
- Entrevistas com usuários reais: Utilizando um questionário semi-estruturado como roteiro.
- Observação remota: O entrevistador solicitará que o usuário compartilhe sua tela ao executar tarefas específicas no site.
Ferramentas sugeridas: Microsoft Teams, Discord ou Google Meet.
I - Identificar Questões Práticas da Avaliação
Recrutamento
- Os participantes serão recrutados com base em perfis que reflitam os principais usuários do site (ex.: frequentadores de cinema, usuários que compram ingressos online regularmente).
- Serão entrevistados 6 usuários, permitindo diversidade de perspectivas.
Preparação
- Um entrevistador realizará as perguntas e coletará as respostas.
- O usuário será orientado a realizar tarefas específicas no site, enquanto o entrevistador observa e toma notas.
Custos
- A avaliação será feita remotamente, sem custos financeiros diretos para equipe ou usuários.
Prazos
Um cronograma será seguido para organizar entrevistas e análises:
Entrevistador | Entrevistado | Data | Horário | Local |
---|---|---|---|---|
Ana Joyce | Usuário 1 | 02/04/2025 | 17:00 - 17:30 | Google Meet |
Anne | Usuário 2 | 02/04/2025 | 19:00 - 19:30 | Google Meet |
Fonte: Ana Joyce.
Roteiro de Perguntas
Perguntas Gerais
- Qual o seu nome?
- Qual o seu grau de familiaridade com o site Cinemark.com?
- Já utilizou o site para comprar ingressos online? Se sim, descreva sua experiência.
Tarefas Específicas
- Como você buscaria por filmes em cartaz?
- Observação: O fluxo apresentado no diagrama está coerente?
- Como você compraria um ingresso?
- Observação: A sequência descrita condiz com sua experiência?
- Como você utilizaria a funcionalidade de compra de vouchers corporativos?
- Como você reservou salas no site anteriormente?
- Como você realizaria o cadastro no Cinemark Club?
- Como você cancelaria uma compra?
- Observação: Existem etapas ou funcionalidades ausentes? (HTA ainda a ser desenvolvido.)
Sugestões
- Os diagramas das tarefas analisadas são claros e condizentes com a realidade?
- Você teria alguma sugestão de melhoria para as tarefas ou o site?
D - Decidir como Lidar com Questões Éticas
- Será obtido consentimento dos participantes antes da entrevista.
- Garantia de anonimato e confidencialidade das respostas coletadas.
E - Explorar Perguntas Respondidas com a Avaliação
Com base nos objetivos definidos, a avaliação buscará responder perguntas relacionadas à adequação, clareza e eficácia das tarefas descritas no site Cinemark.com. Estas perguntas serão o guia para identificar lacunas e oportunidades de melhoria.
1. Representatividade das Tarefas
- As tarefas analisadas representam corretamente as funcionalidades esperadas do site?
Exemplo: O fluxo de "Compra de Ingressos e Combos" reflete as opções reais disponíveis para os usuários, como escolha de assentos, promoções ou combos específicos?
2. Documentação e Estrutura
-
Os diagramas de tarefas foram devidamente documentados?
Exemplo: O uso de notações, legendas e tabelas está claro e compreensível para diferentes públicos (ex.: desenvolvedores, designers, stakeholders)? -
Há passos desnecessários, redundantes ou faltando na descrição das tarefas?
Exemplo: Durante a tarefa de "Reserva de Salas", o diagrama considera todas as variáveis possíveis, como data indisponível ou erro de pagamento?
3. Experiência do Usuário
-
O fluxo descrito nas tarefas está alinhado com a experiência real dos usuários?
Exemplo: Na funcionalidade de "Cadastro no Cinemark Club", o usuário encontra dificuldades em entender benefícios ou completar o processo? -
Existem barreiras ou dificuldades que os diagramas não capturam, mas que são percebidas pelos usuários durante o uso?
Exemplo: O tempo de resposta do site para carregar opções de "Compra de Vouchers Corporativos" interfere na experiência e não está representado?
4. Melhorias e Alternativas
-
Existem melhorias ou alternativas de design identificadas pelos usuários durante a avaliação?
Exemplo: O usuário sugere funcionalidades extras, como filtros mais intuitivos ao buscar filmes em cartaz ou opções adicionais para cancelar uma compra? -
Os fluxos considerados na avaliação incluem cenários de acessibilidade?
Exemplo: As tarefas foram testadas para cenários como navegação com teclado, leitura por dispositivos assistivos ou carregamento em redes lentas?
5. Integração com a Tarefa de Cancelamento de Compra
- Quais informações adicionais são necessárias para criar ou revisar o fluxo de cancelamento de compra?
Exemplo: O usuário identifica que atualmente não encontra uma opção clara para cancelar uma compra ou percebe que as etapas descritas não correspondem à experiência prática.
Planejamento do Teste Piloto
Objetivo
O objetivo do teste piloto é avaliar o planejamento da avaliação, verificando se a metodologia e os materiais fornecidos são claros e adequados para obter os dados necessários para responder às questões e objetivos do estudo. Durante o teste, será possível analisar a eficácia do questionário e o diagrama de tarefas (HTA) utilizado nas entrevistas, assim como garantir que as instruções fornecidas aos participantes sejam suficientes para orientá-los na execução das tarefas.
Data e Participantes
- Data do Teste Piloto: 10/12/2025
- Horário: 18:30
- Participantes:
- Ana Joyce (Entrevistadora)
- Anne (Usuário)
Objetivos do Teste Piloto
- Avaliar a clareza das explicações fornecidas pelo entrevistador durante as entrevistas.
- Analisar a eficácia dos materiais fornecidos (questionário e diagrama de tarefas).
- Testar o fluxo de tarefas descrito no diagrama HTA, garantindo que o usuário compreenda as etapas e execute as tarefas corretamente.
- Identificar possíveis falhas ou problemas nos diagramas de tarefas, com ênfase no fluxo de atividades.
Metodologia
O teste piloto será conduzido como uma sessão normal de avaliação, com os seguintes passos:
- Execução das Tarefas: O participante (Matheus Henrique) será orientado a realizar as tarefas descritas no diagrama HTA.
- Observação do Fluxo de Tarefas: Durante a execução das tarefas, o entrevistador (Geovanna Maciel) observará e anotará as dificuldades encontradas.
- Feedback do Usuário: O participante fornecerá feedback sobre a clareza das instruções e a usabilidade dos materiais, como o questionário e o diagrama de tarefas.
Resultados Esperados
O teste piloto deve identificar: - Pontos de melhoria no diagrama HTA, especialmente no que se refere à visualização de pedidos e ao fluxo das atividades. - Se o questionário de avaliação é adequado para coletar as percepções e sugestões dos participantes. - Se os materiais fornecem as informações necessárias para que o participante execute as tarefas corretamente.
Ferramentas Utilizadas
- Diagrama HTA de Tarefas
- Questionário de Avaliação
- Google Meet
Análise dos Resultados
Os resultados serão analisados em termos de: - Clareza e objetividade dos materiais fornecidos. - Identificação de erros ou falhas no diagrama de tarefas. - Sugestões de melhoria nos fluxos de tarefas. - Adequação do questionário para capturar as percepções dos participantes.
Plano de Ação Pós-Teste Piloto
Com base nos resultados do teste piloto, serão feitas as seguintes ações: - Ajustes no diagrama HTA para corrigir o erro identificado na visualização de pedidos. - Revisão do questionário de avaliação para garantir que ele cubra todas as áreas necessárias. - Ajustes nas explicações e materiais fornecidos aos participantes, se necessário.
Resultado do Teste Piloto
Abaixo segue o vídeo feito do teste piloto de acordo com o cronograma citado anteriormente em que o Ana Joyce fez papel de entrevistador e Anne de usuária. Nele pode-se notar a falta de um fluxo de canlamento e alguns passos diferentes do análise de tarefas, no mais, o teste mostrou que o questionário pode ser utilizado nas entrevistas.
Referências Bibliográficas
1. BARBOSA, S. D. J.; SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier, 2011.
2. Courage, C. & Baxter, K. Understanding your users: a practical guide to## Referências Bibliográficas1. BARBOSA, S. D. J.; SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier, 2011.
2. Courage, C. & Baxter, K. Understanding your users: a practical guide to user requirements, methods, tools, and techniques. San Francisco, CA: Morgan KaufmannPublishers, 2005.
Bibliografia
ALVES, Douglas. Personas . Repositório da disciplina de Requisitos de Software da Universidade de Brasília, 2023. Disponível em: <https://interacao-humano-computador.github.io/2023.1-BilheteriaDigital/analise-de-requisitos/personas/>. Acesso em: 10 dezembro 2024. user requirements, methods, tools, and techniques. San Francisco, CA: Morgan KaufmannPublishers, 2005.
Histórico de Versões
Versão | Descrição | Autor(es) | Data | Revisor(es) | Data de revisão |
---|---|---|---|---|---|
1.0 | Criação da página | Anne de Capdeville | 08/12/2024 | José Oliveira | 09/12/2024 |
1.1 | Adição do DECIDE | Ana Joyce | 10/12/2024 | Pedro Miguel | 10/12/2024 |
1.2 | Adição video teste piloto | Ana Joyce | 10/12/2024 | Anne de Capdeville | 10/12/2024 |
1.3 | Corrigindo os papéis | Ana Joyce | 10/12/2024 | Anne de Capdeville | 10/12/2024 |