Seleção E Apresentação de Informações Contextuais em Ambientes Complexos
Seleção E Apresentação de Informações Contextuais em Ambientes Complexos
Seleção E Apresentação de Informações Contextuais em Ambientes Complexos
SELEÇÃO E APRESENTAÇÃO DE
INFORMAÇÕES CONTEXTUAIS EM
AMBIENTES COMPLEXOS
UNIVERSIDADE FEDERAL DO RIO DE JANEIRO
INSTITUTO DE MATEMÁTICA
INSTITUTO TÉRCIO PACITTI DE APLICAÇÕES E PESQUISAS COMPUTACIONAIS
PROGRAMA DE PÓS GRADUAÇÃO EM INFORMÁTICA – PPGI
Me lembro de quando decidi fazer o doutorado. Pensei silenciosamente: “um novo desafio me
aguarda”. Eu era mais jovem e não sabia o que era desafio. Hoje, já mais relaxado – pós-defesa –
olho para trás e vejo o quão importante o doutorado foi na minha vida. Aprendi que algumas
coisas não se explicam, se vivem.
A jornada do doutorado foi um período de muitas aventuras, aprendizados, idas e vindas. Foram
momentos marcantes que facilmente renderiam um capítulo a mais nesta tese, quiçá até um livro.
Obviamente, não posso deixar de reconhecer que muitas pessoas tornaram essa jornada menos
difícil, mais prazerosa de seguir, ou pelo menos mais enriquecedora com muita troca de
conhecimento. E são essas pessoas que eu gostaria de agradecer.
Agradeço a minha companheira Paula Nascimento, pelo carinho dispensado durante a elaboração
desta tese, por ter me ensinado que não devemos desistir dos nossos objetivos e por ter me
presenteado com meu filho Bento.
Ao meu filho Bento que mesmo sendo ainda bebê me ensinou a dar mais valor aos pequenos
momentos. Tenho certeza que as noites em claro valeram a pena.
Aos meus pais, Mauro e Abilde, e minha irmã Flávia, por todo o incentivo e por serem sempre,
em suas vidas, exemplos de trabalho e retidão. Meu muito obrigado pelas orações. Fizeram toda a
diferença.
Aos meus orientadores, Marcos Borges e Adriana Vivacqua, por todas as oportunidades de
desenvolvimento, crescimento profissional e pessoal. Seus incentivos ao longo do curso como
professores e orientadores foram decisivos na realização deste trabalho. Meu verdadeiro muito
obrigado!
Aos professores José Orlando, Jorge Xavier, Aberto Raposo e João Porto, pela pronta aceitação
de participar da banca avaliadora, contribuindo para o aperfeiçoamento deste trabalho.
A todos os professores do PPGI, que contribuíram para meu aperfeiçoamento acadêmico.
Aos amigos do Laboratório (Alan, Angélica Dias, Bruna Diirr, Bruno Lage, Danilo Pestana,
Edmar Oliveira, Fabrício Firmino, Fran Weidt, Inês Bosca, Ivison Rubim, Juliana França, Kelli
Cordeiro, Marcus Machado, Rodrigo Andrade, Tiago Marino e Viviane Azevedo) que, de uma
forma ou outra, tornaram mais ameno o caminho de construção desta tese.
Ao Grupamento Técnico de Suprimento de Água para Incêndio – GTSAI e a Secretaria
Municipal de Defesa Civil e Políticas de Segurança do Município de Duque de Caxias. Meu
especial agradecimento ao Tenente-coronel BM Marcelo Leite, ao Subtenente BM Castro, ao
Tenente-coronel BM Gil Kempers e ao Meteorologista Thiago Sousa que me apoiaram para
realização dos experimentos.
Aos amigos e alunos da Fundação Educacional Unificada Campograndense pelo apoio ao longo
de todo período de doutorado.
A Universidade Federal do Rio do Janeiro, pela qualificada formação oferecida.
A todos os funcionários do IM/NCE pela alegria e disposição com que recebem a todos que a
eles recorrem.
Estendo meus agradecimentos à Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
(CAPES), que me apoiou financeiramente e tornou este projeto possível.
E a todos que não foram citados, por esquecimento, e que de alguma forma contribuíram com
esse trabalho, o meu muito obrigado!
RESUMO
With recent advances in information technology and the Internet, the amount of data available to
users continues to increase at an unprecedented rate. The lack of ability to properly handle the
large volumes of data means that time and money are wasted. In many different environments,
users need to process an ever increasing amount of information and perform increasingly
complex tasks in a short time. This dynamic creates a major problem of contemporary society
known in the literature as information overload. If we consider complex environments such as
emergency management the problem of information overload becomes even more difficult to
handle. Generally these types of environment users use a defined at design time approach, with
little or no customization access and visualization of information. Sometimes users operate in an
approach where several (minimally integrated) information systems compete for your attention,
burdening them with reports and data offered often irrelevant, poorly designed in relation to the
form of presentation and therefore difficult to understand. Considering the problem mentioned an
approach and proposed system has been designed to reduce information overload in
environments that can not know what information is needed or what is the best way of presenting
information to meet demands in specific contexts. The study was conducted in four stages, each
following their methodological procedures of specific area: bibliographic research, exploratory
survey conducted in the CICC-RJ, development system (dashboard), application of two quali-
quantitative studies in Technical Grouping of Water Supply for Fire and the Department of Civil
Defence and Security Policy of the Duque de Caxias City to evaluate the proposal.
SUMÁRIO
1 INTRODUÇÃO ............................................................................................................. 17
1.1. MOTIVAÇÃO ............................................................................................................. 17
4 DASHBOARDS ............................................................................................................. 55
4.1. DEFINIÇÃO E CONCEITOS ..................................................................................... 55
EAV Entidade-Atributo-Valor
1 INTRODUÇÃO
1.1. MOTIVAÇÃO
A sobrecarga de informações faz com que os usuários gastem muito tempo processando
grandes volumes de dados na tentativa de extrair algum conhecimento significativo.
Praticamente todos os ramos da indústria, ou negócios ou qualquer outra atividade pessoal nos
dias de hoje geram grandes quantidades de dados e na maioria das vezes, os dados são de
diversas fontes, sendo armazenados sem filtragem ou refinamento para uso posterior.
A falta de capacidade em lidar corretamente com os grandes volumes de dados faz com que
tempo e dinheiro sejam desperdiçados. Segundo Keim, Andrienko e Fekete (2008) as
possibilidades de coletar e armazenar dados vem aumentando a um ritmo mais rápido do que a
capacidade de uso para tomar decisões. Ele ainda destaca que a aquisição de dados brutos não
é mais uma barreira para os usuários, o desafio atual está em tirar proveito do excesso de
dados, totalmente dinâmicos, heterogêneos e provenientes de distintas fontes.
Levando em consideração que os usuários atuam cada vez mais em ambientes complexos, que
se caracterizam pela ação de diversos tipos de atores, a imprevisibilidade de acontecimentos, a
18
1.3. HIPÓTESE
(ii) É o usuário que determina o que é o seu contexto. É ele quem define quais
informações devem ser disponibilizadas para o cumprimento da tarefa;
(iii) A visualização adequada de uma informação facilita a percepção, compreensão e
uso da mesma.
Da hipótese pode-se destacar duas palavras chaves: seleção e apresentação. Ambas devem ser
definidas de acordo com o contexto do usuário. Segundo Fischer (2012), o contexto pode ser
determinante para o sucesso de uma tarefa, devendo ser utilizado para obter a informação
certa, no momento certo, no lugar certo, para a pessoa certa na forma de apresentação certa. É
o contexto que torna único e compreensível uma determinada situação (DEY, 2001). Dessa
forma, enquanto alguns podem achar um dado em particular desinteressante, outros
trabalhadores de informações podem extrair informações com valor do mesmo dado ou podem
exigir formas de apresentação distintas para diferentes fins.
1.4. OBJETIVOS
O objetivo deste trabalho é lidar com o problema de sobrecarga de informações. Para este fim,
propõe-se uma abordagem e um sistema que auxiliem um usuário a realizar a seleção e
apresentação das principais informações do seu interesse de maneira interativa.
Para atingir este objetivo serão necessários cumprir uma série de objetivos específicos:
Para avaliar a hipótese é proposto uma abordagem e sistema que permite ao usuário lidar com
a grande quantidade de dados disponíveis e focar somente nas informações do seu interesse. É
o usuário quem define o que é importante em um dado momento, devendo escolher quais
informações fazem parte do seu contexto e como essas informações devem ser apresentadas a
ele.
O enfoque de solução da tese teve como base duas arquiteturas. A primeira é a arquitetura
conceitual e está relacionada com a abordagem da tese. Ela fornece uma visão geral da
organização dos dados e as funcionalidades do sistema. A arquitetura conceitual é comparável
aos modelos de referência de Visualização de Informações – InfoVis descritos no Capítulo 3.
A abordagem apresentada vai da seleção até a visualização das informações através de uma
transição entre modelos. Ela começa com os dados oriundos do domínio e termina com as
formas de apresentação adequadas para cada tipo de informação compondo um dashboard. O
uso de um dashboard se justifica pelo interesse de apresentar ao usuário todo o seu espaço de
informação de uma única vez, permitindo que ele obtenha conclusões rapidamente e reduza o
problema da sobrecarga de informações. Segundo Few (2006a), dashboards podem oferecer
uma solução ao problema de sobrecarga de informação, permitindo uma representação visual
das informações mais importantes e necessárias consolidadas e organizadas em uma única tela.
Cabe destacar que a abordagem proposta é um processo interativo. Isso é útil porque os
usuários estão interessados apenas em informações relevantes ao desenvolvimento da tarefa
atual. Desta forma, levando em conta a imprevisibilidade de acontecimentos do ambiente, o
usuário sempre que necessário pode optar por redefinir seu dashboard.
1.6. METODOLOGIA
Esse trabalho foi realizado em quatro grandes etapas, cada qual seguindo os respectivos
procedimentos metodológicos da área específica, a saber: pesquisa bibliográfica; estudo
exploratório, desenvolvimento de sistema e aplicação de estudos em campo para avaliação da
proposta. Devido a esta diversidade, a metodologia empregada em cada etapa será abordada
separadamente. A Figura 1 mostra todo o processo de investigação da pesquisa. Este processo
de investigação foi concebido com base nos trabalhos de Oates (2005) e Wazlawick, (2009).
!" # % % &%
$ % " "
& & '
% & (
Pesquisa bibliográfica
Existe grande quantidade de trabalhos relacionados aos temas-chave desta tese (Sobrecarga de
Informação, Visualização de Informações e Dashboards). Nos Capítulos de 2 a 4 é
apresentado uma revisão de literatura, que permitiu estabelecer a fundamentação teórica
necessária para uma melhor compreensão do problema e das áreas relacionadas à proposta de
solução. Já no Capítulo 7 é apresentado uma análise de trabalhos encontrados na literatura que
mais se correlacionam com a solução proposta.
Estudo exploratório
Desenvolvimento da solução
O desenvolvimento da solução teve como foco estabelecer uma nova abordagem – baseada em
modelos de visualização – e no desenvolvimento do sistema. Para o desenvolvimento do
sistema optou-se pela implementação de um gerador de dashboard. Visto que os dashboards
podem oferecer uma solução ao problema da sobrecarga de informação, auxiliando o usuário
na visualização das principais informações do seu interesse em uma única tela (FEW, 2006a;
YIGITBASIOGLU; VELCU, 2012).
Avaliação da proposta
processo atual (como é feito) e o processo futuro (abordagem proposta na tese) das atividades
realizadas. Além disso, ao final de cada estudo é apresentado uma discussão quanto as
evidências de sobrecarga encontradas ao se comparar os processos.
8. Avaliação da solução
Avaliação Descrição de estudos de casos realizados junto a
equipes de emergência (GTSAI e Defesa Civil de
Realização de estudos de campo Duque de Caxias) para fins de avaliação da solução.
com objetivo de aplicar a solução
proposta em um cenário real.
Pijpers (2010) ratifica que ainda não existe uma definição única aceita para o fenômeno da
sobrecarga de informações. Em seu trabalho descreve algumas importantes definições e relata
que o fenômeno da sobrecarga de informações pode ser descrito de duas maneiras: 1) quando
o usuário recebe mais informações do que ele consegue absorver e 2) quando a demanda por
26
A Figura 3 também pode ser observada em termos de velocidade de processamento. Este tipo
de interpretação é de grande relevância em cenários onde existe pressão do tempo no
processamento de informações. De acordo com Schick et al. (1990), o tempo para processar a
informação é uma combinação do tempo necessário para interagir com outras organizações e o
tempo requerido para processar a informação. Quando o tempo requerido para processar a
informação excede o tempo disponível ocorre a sobrecarga de informação.
Situações complexas onde a tomada de decisões envolve extrema pressão do tempo se tornam
mais suscetíveis a agravar condições da sobrecarga de informação. Por exemplo, no cenário de
emergência, grupos que respondem a situações de emergência muitas vezes experimentam a
sobrecarga, principalmente devido a multiplicidade de sistemas de informações disponíveis, ou
a necessidade de lidar com a informação de forma imprevista, fazendo com que a predefinição
dos sistemas não seja suficiente para atender as constantes mudanças do contexto
(NASCIMENTO et al., 2016). A ação de diversos tipos de atores, a imprevisibilidade de
acontecimentos, a troca de informações de diferentes formas e a adaptação ao longo da
evolução de uma situação agravam o problema. Durante uma emergência, sem as condições
apropriadas para tomar decisões, o gestor pode tomar decisões equivocadas (ENGELBRECHT
et al., 2010).
Para Lazarte (2000), a informação só tem sentido se for relevante e se ajudar na tomada de
decisões. Segundo ele, em boa parte das pesquisas diárias por informações, os trabalhadores
acabam por perder tempo e atenção na separação do que é relevante. Fischer (2012) descreve
que “menos é mais”, devendo-se buscar uma menor quantidade e maior qualidade de
informação. O fato é que a informação deve ser objetiva e para que seja possível transcender
os obstáculos da sobrecarga de informações, faz-se necessário criar meios mais sofisticados
28
O trabalho de Eppler e Mengis (2003) agrupa as possíveis causas para a sobrecarga em cinco
constructos: fatores pessoais (as pessoas que lidam com a informação), as características da
informação, as tarefas e os processos que precisam ser completados, o desenho organizacional
e a tecnologia da informação. De acordo com os autores não existe uma única causa para
sobrecarga de informações, mas uma combinação de causas.
Fatores Pessoais
O constructo Fatores pessoais é importante para determinar em qual ponto pode ocorrer a
sobrecarga de informações frente a temas relacionados ao ser humano. Determinadas causas
podem sobrecarregar a capacidade de processamento das pessoas. De acordo com Vigil (2011)
as pessoas tentam manter o controle da quantidade de informações para lidar com a sobrecarga
tendendo a recodificar, ou filtrar ou até omitir informações, de forma a aumentar a quantidade
de informações úteis.
Característica da informação
Tarefas e Processos
Desenho organizacional
Tecnologia da informação
sistemas 1998
A sobrecarga de informação pode ser percebida através de uma variedade de sintomas que
afetam a pessoa que lida com informações, bem como o seu desempenho no trabalho. Muitos
desses sintomas vêm sendo descritos por diferentes autores, conforme mostrado na Tabela 2.
Eppler e Mengis (2003) discutem as reações de usuários quando expostos a uma carga pesada
de informações. Os autores destacam que o maior problema de pesquisa sobre os efeitos ou
sintomas da sobrecarga de informação diz respeito à questão de saber se e como a sobrecarga
de informação afeta a precisão da decisão, tempo para tomada de decisão e desempenho de
uma forma geral. Ainda segundo os autores há um amplo consenso na academia que uma
carga pesada de informações pode afetar o desempenho de um indivíduo de forma negativa.
Pijpers (2010) utiliza dois termos para descrever os sintomas da sobrecarga de informações:
(1) Ansiedade de informações e (2) Fadiga de informações. O primeiro diz respeito ao
sentimento de ansiedade de um indivíduo quando a informação não diz o que indivíduo quer
ou precisa saber. O segundo está relacionado a fisiologia humana não ser capaz de lidar com
grandes quantidades de informações. De acordo com o autor, quando um indivíduo é exposto a
uma grande quantidade informações irrelevantes para obter o que precisa, o resultado são
sentimentos de irritação, frustração, impotência, impaciência, para citar alguns, corroborando
desta forma com Davenport e Beck (2001). Já Zhuang, Qiu e Peng (2011) destaca o intenso
interesse da comunidade acadêmica em identificar sintomas da sobrecarga de informação, que
34
incluem a incapacidade de usar informações de forma eficaz, uma maior tolerância de erro,
uma falta geral de perspectiva e tensão cognitiva, estresse, menor satisfação no trabalho e até
mesmo doenças físicas.
Referências Sintomas
Irritabilidade e raiva.
Insônia.
Escassez de atenção.
Eppler e Mengis
Estratégias limitadas ao pesquisar informações.
(2003)
Exaustão.
Zhuang, Qiu e
Incapacidade de utilizar a informação de forma eficaz.
Peng (2011)
Falta de perspectiva.
Esta tese lida com o problema da sobrecarga de informações em ambientes complexos. Estes
tipos de ambiente são caracterizados pela interação não previsível dos seus agentes entre si e
também com o ambiente (CORDEIRO, 2015). Os agentes podem ser de diferentes tipos:
pessoas, organizações, equipamentos e sistemas de informação, e devem coevoluir
constantemente à medida que aumenta a imprevisibilidade da evolução da situação.
Através da revisão bibliográfica foi observado que uma grande quantidade de informações
pode afetar o desempenho de um indivíduo negativamente (se medido em termos de precisão
ou velocidade). Verificou-se que a sobrecarga de informações é um fenômeno complexo que
deve ser estudado constantemente em um ciclo contínuo de melhoria e refinamento (EPPLER;
MENGIS, 2003). Eppler e Mengis pesquisaram a obra de mais de uma dezena de autores e
sugeriram causas fundamentais da sobrecarga de informações. Estas por sua vez levam a
sintomas que pedem contramedidas (soluções) para redução de suas causas. Este processo
36
cíclico foi apresentado no trabalho dos autores (Figura 4) e suas causas foram utilizadas como
base para avaliação desta tese.
Figura 4 Modelo Conceitual para pesquisas acerca da sobrecarga de informações (EPPLER; MENGIS, 2003)
Nos próximos capítulos serão apresentados dois tópicos que são fundamentais para a
elaboração da proposta de solução desta tese. A área de pesquisa denominada Visualização de
Informação é apresentada no Capítulo 3. Esta área estuda maneiras de como o uso de
computadores, na criação de representações visuais interativas a partir de dados abstratos,
pode ampliar a cognição. Já no Capítulo 4 são apresentados os conceitos para o
desenvolvimento de um dashboard.
37
3 VISUALIZAÇÃO DE INFORMAÇÕES
Conforme apresentado no Capítulo 2 vivemos em uma sociedade que sofre com os efeitos da
sobrecarga de informação. Atualmente, nos mais diferentes domínios, usuários acessam
grandes e diversificadas bases de dados obtendo facilmente um grande volume de
informações, dentre as quais muitas podem ser irrelevantes para os objetivos da tarefa que está
sendo realizada. De acordo com Neto (2008), o processo humano de aquisição e uso de
conhecimento, chamado de cognição, é por si próprio um processo limitado. Segundo Norman
(1993), “Sem ajuda externa, a memória, o pensamento e o raciocínio são todos restritos”.
Entende-se por Visualização a área na qual técnicas de computação gráfica e de interação são
empregadas para auxiliar o processo de análise e compreensão de um conjunto de dados, por
meio de representações visuais manipuláveis. Segundo Few (2009), Visualização pode ser
acompanhada por três palavras, criando três termos com significados diferentes:
Segundo Nascimento e Ferreira (2005), InfoVis é uma área de pesquisa que estuda formas de
apresentar dados visualmente de tal modo que relações entre os mesmos sejam melhor
compreendidas ou novas informações possam ser descobertas. Reunindo aspectos de diversas
áreas científicas como a computação gráfica, interfaces homem-computador e mineração de
dados, InfoVis procura transformar em uma representação gráfica e interativa um conjunto de
dados brutos. De acordo com Card, Mackinlay e Shneiderman (1999), Infovis é definida
como:
Ao observar a definição proposta por Card, Mackinlay e Shneiderman (1999) pode-se detalhar
e identificar as seguintes características:
• Dados abstratos: informações tais como dados quantitativos, processos ou relações são
consideradas abstratas, em contraste com as representações visuais de objetos físicos;
• Suportados por computador: a visualização é exibida por um computador, geralmente
em uma tela;
• Interativo: a visualização pode ser manipulada de forma simples e direta, através de
ações em diferentes níveis. Estas ações ocasionam alterações na representação visual
de modo que novos aspectos do conjunto de dados possam ser observados.
• Amplificar a cognição: interagindo com essas visualizações a capacidade de pensar
sobre a informação é ampliada através de uma representação dos dados que pode ser
facilmente compreendida.
Todas essas características são importantes para a definição, mas nenhuma é mais importante
que a última: amplificar a cognição. De acordo com Card, Mackinlay e Shneiderman (1999)
existem seis formas principais pelas quais a visualização pode amplificar a cognição:
pessoas, seja para ilustrar alguma coisa, ou para convencê-las do nosso ponto de vista
(SCHÖNHAGE, 2001). Por essas e outras razões, InfoVis surge como uma abordagem
promissora para atenuar os problemas inerentes da sobrecarga de informação, citados no
Capítulo 2. Entretanto, para que uma representação visual dos dados seja útil, é fundamental
que o mapeamento preserve o dado original (CARD et al., 1999). Esse processo de
mapeamento será apresentado na próxima seção.
Um dos modelos mais reconhecidos na literatura foi o proposto por Card, Mackinlay e
Shneiderman (1999), conforme mostrado na Figura 7. Dentre os modelos encontrados na
literatura, este modelo é o que mais se aproxima mais da proposta de solução desta tese,
apresentada no Capítulo 6. Exceções a este modelo são apresentadas nos trabalhos de Chi e
Riedl (1998), Hoffman (1999), Spence (2001) e Ware (2004), descritas a seguir.
Chi e Riedl (1998) apresentaram o Modelo de Estado de Dados, que usa um operator
interaction framework para caracterizar diferentes técnicas de visualização (científicas e de
informações). Chi também analisou diferentes técnicas de visualização e mostrou como elas se
encaixam no modelo de estado de dados (CHI, 2000). Hoffman (1999) propôs um modelo
formal de visualizações tabulares, baseado em uma abstração, como uma tentativa de prover
um modelo unificado para algumas técnicas de visualizações tabulares (Coordenadas
Paralelas, Survey Plot, Visualização de Coordenadas Radiais (Radviz) e Matriz de
Scatterplots). Spence (2001) identificou as etapas de seleção, codificação e apresentação como
as principais etapas da transformação de dados brutos para visualização. Já Ware (2004)
42
elaborou um modelo que leva em conta a coleta de dados, mas não faz distinção entre tabelas
de dados, estruturas visuais e visões. O modelo de Ware contém quatro etapas: coleta e
armazenamento de dados, pré-processamento dos dados, a construção da imagem, e o sistema
cognitivo e de percepção humana.
1
O uso de tabelas é uma simplificação desnecessária, visto que os dados podem ser representados em outros tipos
quaisquer de estrutura de dados, dependendo da aplicação.
43
transformações visuais, isto é, as possíveis interações que um usuário pode realizar sobre
as estruturas visuais e com isso obter diferentes visões das mesmas. De acordo com
Grammel, Tory e Storey (2010) o usuário interpreta a visão com uma tarefa em mente, e
pode interagir com a visualização, alterando as transformações de dados ou os
mapeamentos visuais da exibição corrente.
1. Expressividade: o mapeamento visual deve fazer com que a estrutura visual expresse
todos os dados de interesse do usuário, e somente eles.
2. Efetividade: refere-se à capacidade de permitir rápida interpretação dos dados e fácil
distinção entre eles, levando à menor quantidade possível de erros de interpretação.
3. Adequação: envolve uma relação de equilíbrio de custo-valor, a fim de avaliar o
benefício do processo de visualização em relação à uma tarefa.
De acordo com Souza (2008), estes critérios são importantes, porque sem os mesmos, uma
visualização pode não ser capaz de enfatizar padrões relevantes nos dados, não trazendo,
assim, quaisquer informações novas além daquilo que já é trivialmente conhecido. Além disso,
uma visualização também pode ser de difícil entendimento ou, até mesmo, sugerir padrões que
na verdade não existem, o que pode levar a uma interpretação errônea dos dados (CARD et al.,
1999).
44
De acordo com Valiati (2008) existe uma diversidade muito grande de técnicas de visualização
e nem todas se encaixam corretamente nas classificações existentes, pois as características que
separam cada classe não são precisas e completas. Desta forma, muitas representações visuais
podem ser consideradas híbridas de várias técnicas.
Freitas e Wagner (1995) apresentam uma proposta de caracterização de dados baseada na:
classe (tipo) de informação, tipos de valores, e natureza e dimensão do domínio.
Tweedie (1997) classificou um número de técnicas de visualização segundo os dados que eles
representam, a interatividade que eles suportam, bem como as suas relações de entrada/saída
ao longo do tempo. Card e Mackinlay (1997) adotaram uma abordagem semelhante a Tweedie
e classificaram as variáveis usadas em uma técnica de visualização em termos dos tipos de
dados (ordinal, quantitativa, espacial, etc.), função de gravação, tipo de marca visual, as
propriedades gráficas (cor, tamanho, área ou volume da marca, a orientação o sentido e a
inclinação de marcas do tipo linha, a textura de uma marca na forma de área), posição no
espaço/tempo, entre outros.
não só ajuda os pesquisadores a entender o espaço de design, mas também ajuda aos
desenvolvedores a entender como as técnicas de visualização de informações podem ser
aplicadas de forma mais ampla.
Keim (2002) sugere uma classificação segundo: a natureza do dado a ser visualizado, a
abordagem de mapeamento adotada pela técnica e os métodos de interação e distorção usados
para manipular a representação visual. Quanto à natureza dos dados, estes podem ser
unidimensional (1D), bidimensional (2D), multidimensional (nD), texto e hipertexto,
hierarquias/grafos e algoritmos/softwares. A abordagem para interagir com os dados
visualmente podem ser projeções, filtragem, zoom, distorção e Seleção/Ligação. Já as
Técnicas de Visualização estão classificadas como Técnicas 2D/3D Tradicionais, Técnicas de
Projeções Geométricas, Técnicas Iconográficas, Técnicas Baseadas em Pixel e Técnicas de
Empilhamento de Dimensões.
Pfitzner, Hobbs e Powers (2003) considera cinco aspectos em sua taxonomia de visualização
de informações: dados, tarefa, interatividade, experiência do usuário e contexto. Embora esta
seja uma das taxonomias mais abrangentes e próximas a este trabalho, o trabalho destes
autores não categoriza todas as técnicas de visualização usando sua taxonomia.
Tory e Moller (2004) estenderam o trabalho feito por Shneiderman dividindo as técnicas de
visualização em duas categorias, visualizações que são adequadas para dados contínuo vs
dados discretos.
Neto (2008) sugere uma extensão do trabalho de Keim (2002), considerando três novos
grupos, a saber: Técnicas Hierárquicas, Técnicas Dinâmicas e Técnicas Híbridas. As Técnicas
Empilhamento de Dimensão foram colocadas juntas às Técnicas Hierárquicas devido à
natureza hierárquica dos dados.
De acordo com Bull (2008), as taxonomias propostas visam: (1) designers que criam novas
visualizações e (2) engenheiros de software que estão simplesmente usando a visualização de
informações como uma ferramenta. No contexto deste trabalho, em que os dados são muitos,
de diferentes fontes e características, juntar essa “confusão” de informações em uma
visualização completa e intuitiva, não será uma tarefa fácil. A partir deste princípio, pode-se
imaginar o quanto a tarefa de escolher e avaliar qual o método melhor para ser aplicado será
difícil.
46
Como visto nas subseções anteriores, InfoVis pode alavancar o sistema visual humano e
proporcionar uma amplificação cognitiva, apoiando os usuários na análise, no entendimento e
na comunicação de grandes quantidades de informações. Apesar da área de visualização ser
apontada como possível solução para lidar com problemas de sobrecarga de informação nos
mais variados domínios, sua abordagem deve levar em conta que os problemas atuais
enfrentados pelos usuários estão se tornando cada vez mais amplos e complexos, para não
mencionar incertos e mal definidos (ISENBERG et al., 2011). Muitas vezes, não é mais
possível para um único usuário enfrentar os imensos conjuntos de dados disponíveis e tomar
decisões isoladamente, portanto, deve-se idealizar formas de transcender os tradicionais
sistemas de visualização, passando de uma estrutura monolítica – somente um usuário
interagindo – para uma estrutura com suporte a colaboração.
Esta definição é derivada da definição de InfoVis mencionada na Seção 3.1. Cabe enfatizar
que em relação a definição de InfoVis adotada nesta tese, o termo “cognição” foi substituído
pelo termo “processamento de informação”. Esta substituição, sugerida no trabalho de
Isenberg et al. (2011), deve-se ao fato de que existem diferentes teorias para como a cognição
se aplica quando grupos se reúnem para pensar e raciocinar de forma conjunta. Desta forma,
evita-se o favorecimento de qualquer teoria ou unidade de análise específica.
47
Segundo Hu et al. (2012), sistemas de visualização colaborativa vem sendo desenvolvidos por
grandes projetos científicos, bem como em InfoVis. No trabalho de Wood, Wright e Brodie
(1997) é apresentado uma extensão do modelo de visualização científica (Figura 8) proposto
por Haber e Mcnabb (1990) que serve como base para o desenvolvimento destes tipos de
aplicações. Este modelo apresenta o processo de visualização como um pipeline. Este pipeline
é iniciado com a entrada de dados que passam por processos de filtro, mapeamento e
renderização até a geração de uma imagem final. No trabalho de Wood, Wright e Brodie
(1997) é proposto um pipeline de visualização para cada colaborador considerando a atuação
de vários participantes independentes. Em seu modelo a troca de dados é feita em pontos
arbitrários do pipeline permitindo enviar e receber dados. Também é possível realizar o
controle compartilhado, onde a definição de parâmetros deve ser controlada localmente pelo
usuário ou externamente por um colaborador.
48
Figura 9 Visualização Colaborativa pode ocorrer em muitos cenários de acordo com a matriz adaptada de
(ISENBERG, 2011)
49
Nos trabalhos de Brodlie et al. (2004), Hu et al. (2012), Isenberg e Carpendale (2007) e
Isenberg et al. (2011) são descritas duas grandes correntes de pesquisa em visualização
colaborativa: distribuída e co-localizada. A visualização colaborativa distribuída (imagem
esquerda da Figura 10) tem seu foco nas arquiteturas e mecanismos de sincronização para
permitir o trabalho remoto e eficiente, permitindo a colaboração tanto a nível de sistema
quanto a nível de usuário. Um ambiente distribuído é um cenário comum para visualização
colaborativa. Este tipo de ambiente permite que usuários de diferentes locais acessem dados,
compartilhem imagens e análises dos resultados, interação e cooperação, através de uma rede,
sejam por meio de interações síncronas (veja: sistema CoMotion - http://www.gdviz.com/) ou
assíncronas (veja exemplos dos sistemas sense.us - http://vis.stanford.edu/papers/senseus,
Many Eyes - http://www.manyeyes.com/ e Swivel - http://www.swivel.com/). Já a
visualização colaborativa co-localizada (imagem direita da Figura 10) ocorre quando usuários
compartilham o mesmo espaço de trabalho, por exemplo, aplicações em torno de uma mesa
multi-touch ou em um ambiente multi-display. É importante ressaltar que apesar desse tipo de
tecnologia se tornar mais acessível (muitas vezes não há necessidade de uso de hardware
específico), as entradas síncronas adicionais podem levar a desafios relacionados a:
mecanismo de apoio a coordenação, percepção das atividades realizadas pelos demais usuários
ou a transferência de itens originados de diversos dispositivos para um mesmo espaço de
trabalho, para citar alguns. No caso de considerarmos as entradas assíncronas no cenário
colocado (mesmo local, tempos diferentes), recentemente tem havido novas pesquisas,
principalmente em situações no qual é desejável apresentar informações do ambiente (por
exemplo em hospitais, aeroportos e shopping centers).
Sistemas e frameworks para InfoVis tem atraído grande atenção da comunidade acadêmica e
com isso vem se desenvolvendo rapidamente. De acordo com Liu et al. (2014), como a
implementação de aplicações a partir do zero é uma tarefa difícil, pesquisadores vem propondo
uma variedade de sistemas e frameworks de visualização para apoiar a criação e customização
de aplicações de visualização. Os sistemas representam à construção de bibliotecas ou toolkits
para o desenvolvimento de visualizações. Já os frameworks representam a modelagem de
diferentes aspectos de técnicas de visualização. A Tabela 3 apresenta alguns exemplos de
sistemas e frameworks. Para esta tese optamos por usar as bibliotecas Document-Driven
Documents (D3) e Google Chart, pois oferecem uma grande flexibilidade ao utilizar padrões
da web, sendo facilmente incorporados a proposta de solução que será apresentada no Capítulo
6.
Sistemas e Descrição
frameworks
IVTK IVTK – InfoVis ToolKit: Pacote gráfico interativo escritos em Java.
Inclui uma série de componentes para análise visual de dados, dentre as quais,
Árvore de Decisões e Coordenadas Paralelas.
http://ivtk.sourceforge.net/
ITK ITK – Insight Toolkit: Biblioteca open source usada para desenvolvimento de
aplicações médicas. Implementada em C++ e possui interface para Tcl/TK,
Java, Python. Foi desenvolvido pela KitWare. Inc.
http://www.itk.org
KitWare. Inc.
http://www.vtk.org
http://www.cs.ou.edu/~weaver/improvise/
http://prefuse.org/
interação e animação.
http://d3js.org/
Google Charts É uma biblioteca que fornece vários tipos de gráficos dinâmicos pré-definidos
e que são facilmente implementados em páginas HTML. Foi desenvolvido
pelo Google, e é baseado em JavaScript.
https://developers.google.com/chart/
WebCharts É um framework que fornece uma estratégia para a incorporação de efeitos
visuais em aplicações JavaScript já existentes sem a necessidade de mudanças.
http://research.microsoft.com/en-us/projects/webcharts/
Apesar de InfoVis ser uma área relativamente nova, existem conferências e simpósios
importantes realizados mundialmente. Dentre eles, destacam-se:
InfoVis apresenta uma série de desafios técnicos a serem superados. Estes desafios são
comuns a uma grande variedade de domínios de aplicação e por isso vem ganhando destaque
em diferentes pesquisas sobre o tema. Segundo Liu et al. (2014) os cinco grandes desafios da
área são:
5. Erros e incerteza: dados muitas vezes são incertos e imprecisos. Além disso, a
incerteza pode surgir em qualquer fase do processo de visualização. Por exemplo, a
transformação ou filtragem dos dados pode introduzir erros e inconsistências na
visualização. A fim de reforçar a veracidade da visualização é importante transmitir
corretamente os potenciais erros e incerteza para o usuário final. Portanto, faz-se
necessário que pesquisadores e desenvolvedores de visualização compreendam quando
e por que um método de visualização é mais adequado para uma aplicação do que para
outra.
4 DASHBOARDS
Este capítulo tece algumas considerações sobre dashboards. São descritos os principais
fundamentos para o desenvolvimento de um dashboard e erros mais comuns cometidos.
Também surgiu no início da década de 1990 uma nova abordagem para gerenciamento que
envolveu a identificação e uso de indicadores de desempenho (Key performance indicators –
KPIs). Este método introduzido por Robert S. Kaplan e David P. Norton é conhecido como
56
Balanced Scorecard (ECKERSON, 2010). De acordo com Few (2013), os avanços em data
warehousing e o conjunto de tecnologias relacionadas configuram o cenário de interesse atual
da gestão através de métricas (não somente métricas financeiras). Business Performance
Management – BPM tornou-se uma preocupação internacional. Essa infraestrutura construída
pelo data warehousing e o interesse do BPM em métricas que podem ser facilmente
monitorados, impulsionaram novamente a ideia dos dashboards.
“Um Dashboard ou Painel de Controle é uma representação visual das informações mais
importantes e necessárias para alcançar um ou mais objetivos, consolidadas e organizadas
em uma única tela para monitoramento das informações em um relance”
Um dashboard é uma típica ferramenta para comunicação, no qual o usuário pode obter uma
visão geral (estratégica ou operacional) de forma rápida e eficiente para uma determinada
situação.
clara e resumidas, diretas ao piloto. Apenas o que é relevante deve ser mostrado, ignorando
qualquer distração com alertas ou informações irrelevantes, de forma a garantir o uso seguro
da aeronave.
De acordo com Few (2013), frequentemente é mais difícil avaliar o que os usuários precisam
em um dashboard do que planejar um dashboard com base nas necessidades deles. Para o
desenvolvimento apropriado de um dashboard, assim como qualquer desenvolvimento que
envolve interação humana com tecnologia, é necessário entender a atividade cognitiva dos
usuários potenciais, além de ter conhecimento do domínio. Few descreve um conjunto de
características que afetam a forma como eles devem ser projetados, são eles:
Frequência de atualização
• Diária
• De hora em hora
• Em tempo real
A frequência que uma informação é atualizada pode ter uma influência significativa na forma
como um dashboard deve ser planejado. No planejamento do dashboard o usuário deve ter
conhecimento quanto a atualização da informação. Por exemplo, se as informações são
atualizadas em tempo real o recomendado é que o dashboard seja mais simples, contendo
59
menos informação do que se fosse atualizado diariamente. Isso se deve ao fato que um usuário
não pode receber muita informação de uma só vez para não se sentir sobrecarregado.
Experiência do usuário
• Novato
• Qualificado
• Especialista
A experiência do usuário sem dúvida é um dos critérios mais importantes a ser considerado no
planejamento do dashboard. Se um usuário é novato o mais recomendado é que ele faça uso
de formas de apresentação mais simples. O desejado é que a medida que vai ganhando
experiência ele possa sofisticar suas escolhas.
Tamanho da audiência
• Um usuário
• Múltiplos usuários com os mesmos requerimentos
• Múltiplos usuários que necessitam monitorar subconjuntos dos dados
Quanto mais personalizado for o dashboard em relação a audiência, mais efetivo ele será. Se o
dashboard é planejado para uso individual é mais fácil personalizá-lo as necessidades do
usuário. Já planejar um dashboard para um grupo de pessoas é um grande desafio. Mesmo que
os usuários tenham que monitorar as mesmas informações para os mesmos propósitos, suas
preferências individuais diferem entre si. Por exemplo, eles podem diferir em relação a
experiência ou em relação as preferências de visualização de informações. Neste caso, deve-se
ter diferentes versões do dashboard de maneira a atender as necessidades específicas de cada
usuário. Este desafio pode ser aumentado se considerarmos usuários que possuem os mesmos
requerimentos de informações mais estão interessados em diferentes subconjuntos dos dados.
Por exemplo, em um cenário de incêndio de grande escala que envolve diversas equipes de
bombeiros, cada equipe pode estar interessada em acessar e visualizar informações de uma
determinada área em particular. Neste caso, recursos de seleção (como filtros) e visualização
60
personalizados ao tipo de audiência são úteis pois permitem aos usuários terem foco apenas
nas informações que são relevantes ao seu contexto.
Plataforma
• Desktop/laptop
• Web server/browser
• Dispositivos móveis
O uso de desktops/laptops com instalação de software local ainda é muito utilizado como
plataforma para hospedar dashboards hoje. No entanto, com o amadurecimento das aplicações
web novas plataformas se apresentam com recursos muito interessantes. Muitos dashboards
hoje são hospedados em servidores e visualizados através de web browsers. Neste tipo de
plataforma, a centralização de sua instalação e o fácil gerenciamento de acesso por múltiplos
usuários tornam sua implantação e manutenção mais simples. Nessa mesma linha o uso de
dashboards em dispositivos móveis despontam como uma excelente plataforma, pois além das
vantagens já citadas possibilita aos usuários a mobilidade de acesso.
Cabe destacar que as três plataformas citadas possuem questões que devem consideradas no
seu planejamento. Por exemplo, o uso de dashboards em desktops/laptops demandam um
maior tempo de implantação e manutenção, visto que deve ser feito de forma individualizada.
Isso sem dúvida deve ser levado em conta no planejamento do dashboard. Já em dashboards
utilizados através de web browsers, questões relacionadas ao tempo de feedback ou até mesmo
as diferentes versões dos web browsers devem ser consideradas. Por fim, se tratando de
dashboards utilizados através de dispositivos móveis o tamanho da tela deve ter uma atenção
especial. Visto que em decorrência do tamanho da tela a interação e a visualização podem
diferir completamente das plataformas anteriores.
Tipo de tela
Tipos de dados
• Quantitativo
• Não quantitativo
Dashboards são úteis para muitos tipos de trabalhos. Por exemplo, um meteorologista no
monitoramento do tempo, equipes de emergência no monitoramento de número de feridos ou
desabrigados, CEOs de empresas no monitoramento de indicadores de desempenho, analistas
financeiros no monitoramento do mercado de ações, para citar alguns. Todos esses
profissionais necessitam monitorar algum tipo de informação específica. Devido à natureza de
monitoramento quase toda a informação utilizada em um dashboard é do tipo quantitativa.
Obviamente, a casos em que os dados são não quantitativos, por exemplo, quando um usuário
tem que monitorar os status de uma atividade ou evento.
62
Uma das grandes vantagens de um dashboard é poder visualizar tudo que necessita
consolidado e organizado de uma única vez. Quando um usuário visualiza todas as
informações em uma única tela algo poderoso acontece. Por outro lado, algo crítico acontece
quando o usuário precisa manipular uma barra de rolagem ou alternar entre janelas.
Exemplos deste erro são mostrados nas Figuras 13 a 15. Na Figura 13 pode-se observar um
caso onde a informação está fragmentada no dashboards. Isso só seria bom se os usuários não
necessitassem visualizar relacionamentos entre as informações. Na Figura 14 as informações
sobre vendas diárias foram separadas em um dashboard para cada um dos 20 produtos. Se a
intenção é visualizar exclusivamente um único produto por vez e nunca comparar as vendas
desses produtos, esse dashboard não fragmenta os dados de uma forma prejudicial. Já na
Figura 15 pode-se observar o problema de ter que rolar a barra de rolagem para visualizar
informações relevantes.
Figura 14 Informações sobre diferentes produtos separadas em um mesmo dashboard (FEW, 2006b)
Apresentar informações sem que o usuário tenha ciência do contexto é um erro. Qualquer
afirmação sem que o usuário saiba do contexto poderá ser desastrosa. A informação certa para
a pessoa certa deve ser determinada pelo contexto. É o contexto que permite ao usuário
determinar se uma determinada medida é boa ou ruim, ou se as informações indicam o
caminho certo. Na Figura 16 pode-se observar um caso em que o contexto poderia ser
incorporado de maneira a facilitar a compreensão do usuário. Por exemplo, o indicador de
centro nos diz apenas que 7.822 unidades foram vendidas e que este número é bom (indicado
pela seta verde). A escala quantitativa destina-se a proporcionar uma aproximação da medida,
mas para isso a escala deveria ser marcada com números, que estes indicadores não têm. Se os
números estivessem presentes, as posições das setas seriam mais significativas.
Para que um dashboard sirva como uma ferramenta de monitoramento rápido, ele nunca deve
exibir informações mais detalhadas do que o necessário. Pode-se observar na Figura 17
destacado em vermelho este erro. Cada informação inútil em um dashboard resulta em
desperdício de tempo, o que é intolerável quando o tempo é fator essencial para tomada de
decisões.
65
Para que uma medida não seja ineficiente é necessário saber o que está sendo medido e em que
unidade de medida está sendo expressa. O usuário deve discernir a informação de forma
eficiente. Para isso, a informação deve ser clara, resumida e direta. Na Figura 18 pode-se
observar um caso em que o usuário precisava saber apenas o grau de diferença entre a receita
atual e a orçada. Entretanto, o gráfico apresenta informações adicionais, levando o usuário a
focar atenção em medidas irrelevantes.
66
Figura 18 Exemplo de gráfico que não expressa diretamente a mensagem pretendida (FEW, 2006b)
Figura 19 Este gráfico ilustra um problema comum com gráficos de pizza (FEW, 2006b)
67
Introduzir uma variedade de formas de apresentação sem nenhum critério está diretamente
relacionado com o erro descrito anteriormente. A escolha da forma de apresentação sempre
deve estar de acordo com as preferências do usuário. A variedade pode ser bem-vinda desde
que o usuário não tenha que desperdiçar tempo e esforço. Na Figura 20 pode-se observar uma
confusão visual na exibição de uma mesma informação. Neste caso o usuário tem que utilizar
de diferentes estratégias de percepção da informação, o que significa mais tempo e esforço.
Figura 20 Exemplo de dashboard com uma variedade de formas de apresentação desnecessárias para uma
mesma informação (FEW, 2006b)
Figura 21 Exemplo de gráfico de pizza com cores muito semelhantes (FEW, 2006b)
Figura 22 Este gráfico de barras apresenta os valores de forma imprecisa ao não começar a escala no zero
(FEW, 2006b)
ERRO 10: Destacar informações importantes de forma ineficiente ou não destacar todas
as informações
Figura 24 Exemplo de dashboard que não diferencia as informações por sua importância (FEW, 2006b)
Efeitos visuais inúteis geram distração aos usuários. Na Figura 25 pode-se observar diversos
gráficos meramente decorativos. Este tipo de conteúdo visual leva o usuário a desperdiçar
tempo no processamento das informações e o distrai para itens que não são relevantes.
72
Conforme visto anteriormente, a cor pode ser usada de forma poderosa para destacar
informações ou criar uma relação entre os itens individuais e um dashboards. Entretanto, o uso
de cores é normalmente mal utilizado. Opções de cores devem ser feitas cuidadosamente, com
base no entendimento de como as pessoas percebem as cores e nas suas diferenças. Algumas
cores são quentes e chamam mais atenção, enquanto outras cores são mais frias e menos
visíveis. Quando qualquer cor aparece como um contraste ao usual, a tendência é que os olhos
prestem atenção e que o cérebro tente atribuir algum significado a essa diferença. Quando as
cores em dois monitores diferentes são os mesmos, a tendência é que se busque relacionar um
monitor ao outro. Na Figura 26 pode-se observar um abuso de cores. A forma correta seria
manter cores suáveis e neutras, com exceção a intenção de destacar algo importante.
73
Um dashboard deve ser agradável aos olhos do usuário. Apesar de anteriormente ter advertido
quanto ao uso de efeitos visuais inúteis. Cabe destacar que se um dashboard não é atraente a
tendência é que o usuário ache que seu uso não promissor. Dashboards devem ser claros,
resumidos e diretos, deixando de lado qualquer outra informação que possa ofuscar o que é
mais importante para o usuário. Na Figura 27 pode-se observar um exemplo de dashboard
pouco atraente, sem nenhum atrativo visual.
74
Figura 27 Exemplo de um dashboard com apresentação visual pouco atraente (FEW, 2006b)
Neste capítulo foram apresentadas algumas considerações sobre como planejar um dashboard.
Um dashboard deve ter como objetivo fundamental a comunicação. Outra característica
importante para um dashboard é que ele seja personalizável e adaptável, para que possa
cumprir os objetivos dos seus usuários (HORITA et al., 2014). Ele deve conter todas as
informações vitais consolidadas e organizadas em uma única tela, utilizando-se de uma
interface simples e clara para que um usuário comum possa monitorar informações com um
piscar de olhos.
No próximo capítulo será abordado a proposta de solução desta tese. A escolha de incluir um
dashboard como parte da proposta de solução se justificou pelo interesse de apresentar ao
usuário todas as informações do seu interesse de uma única vez, permitindo que ele obtenha
conclusões rapidamente e reduza o problema da sobrecarga de informações.
5 ESTUDO EXPLORATÓRIO
Neste capítulo será detalhado um estudo exploratório que sinaliza evidências do problema de
sobrecarga de informações em um cenário real. O estudo foi realizado no Centro Integrado de
Comando e Controle da cidade do Rio de Janeiro (CICC-RJ) em 2014 e 2015.
Dentre os diferentes domínios que possuem os problemas mencionados nessa tese foi
escolhido a área de Gestão de emergência como domínio de aplicação. Segundo Haddow,
Bullock e Coppola (2007), chama-se Gestão de emergência a disciplina que aplica ciência e
tecnologia para lidar com situações adversas que exigem respostas imediatas para minimizar
consequências. Estas situações podem ser naturais ou geradas pelo homem, mas exigem uma
resposta para proteger a vida e a propriedade.
As atividades da Gestão de emergência são distribuídas em quatro fases (Figura 28) que se
relacionam de forma cíclica: mitigação (mitigation), preparação (preparedness), resposta
(response) e recuperação (recovery) (MILETI, 1999; FEMA, 2013).
De uma forma geral, qualquer que seja a fase da gestão de emergência, as decisões são
tomadas a partir de informações provenientes de diferentes fontes e nos mais diversos
formatos (CORDEIRO et al., 2014). Essas informações precisam ser acessadas, combinadas e
visualizadas de forma adequada para evitar a falta de informação, bem como a sobrecarga de
informações. A própria informação nesse cenário pode evoluir dinamicamente: informações
novas ou mais precisas podem se tornar disponíveis, enquanto informações já conhecidas
podem ser confirmadas ou refutadas (COMES et al., 2012).
A gestão da informação em salas ou centros de comando vem passando por uma revolução em
termos de fontes de informação disponíveis. Em muitos cenários, os gestores de emergência
podem acessar grandes e diversificadas bases de dados, e facilmente obter uma grande
quantidade de informações. No entanto, parte desta informação pode ser irrelevante, o que
provoca a sobrecarga de informações (COMES et al., 2012).
Em situações de emergência, a sobrecarga de informações deve ser evitada, mas sem restringir
o acesso à informação (ENGELBRECHT et al., 2011). Gestores de emergência devem focar
somente no que é relevante dentro do seu contexto. Ou seja, é o gestor quem define o que é
77
importante ao executar uma determinada atividade. Mesmo quando os gestores têm uma visão
consolidada das informações, a maioria das soluções disponíveis fornecem pouca ou nenhuma
personalização na sua seleção e visualização. Assim, novas necessidades de informação ou de
visualização não são levadas em conta, fazendo com que o gestor divida o foco de sua atenção
em outros sistemas de informação.
O Centro Integrado de Comando e Controle (CICC), tal como foi concebido pelo Ministério
da Justiça do Brasil, é uma estrutura em que se possibilita a integração dos serviços de vários
órgãos, no caso específico de um aparato de defesa social, onde se realizam ações conjuntas,
cooperativas e com caráter gerencial horizontalizado (BRASIL, 2010)
No Brasil, catalisados pelos megaeventos (Visita do Papa Francisco, Copa do Mundo 2014,
Olimpíadas 2016, para citar alguns) e pela crescente “modernização tecnológica” da segurança
pública, foram construídos CICCs em 12 capitais, representando dessa forma um dos maiores
investimento em segurança (CARDOSO, 2013). No presente estudo foi analisado o CICC-RJ.
O espaço físico do CICC-RJ é dividido conforme a Figura 29, sendo representadas as diversas
instituições oficiais responsáveis pela segurança pública e “defesa social”: SAMU, Corpo de
Bombeiros, CET-Rio, Polícia Rodoviária Federal, Guarda Municipal, Defesa Civil e as
polícias civil e militar. Na ocorrência de crises a serem gerenciadas ou durante a realização dos
grandes eventos, na sala preparada para esse intuito também estariam presentes representantes
da Polícia Federal, da Abin e das Forças Armadas.
78
A Figura 30 mostra uma das salas utilizadas para monitoramento e treinamento de pessoal
(simulações).
79
Já as entrevistas foram realizadas com três gestores do CICC-RJ. Os resultados dessas etapas
serão detalhados a seguir.
Nas observações a preocupação era de não interferir nas atividades realizadas pelos gestores e
operadores de emergência. Durante as observações in loco foram acompanhadas as ações dos
operadores de emergência em situações rotineiras e a preparação para o monitoramento de
situações de emergência com alto impacto social, como megaeventos, catástrofes naturais,
manifestações sociais, para citar alguns.
Código Resultados
2
Doravante PESCM14.
82
Código Resultados
O estudo permitiu elicitar requisitos essenciais para a solução do problema abordado nesta
tese, além de permitir avaliar quais teorias ou conceitos existentes poderiam ser aplicados ao
problema ou se seriam necessários desenvolver novas abordagens.
Com base nos estudos do campo teórico e no estudo exploratório, a arquitetura conceitual
apresentada no Capítulo 6 foi proposta. Esta arquitetura permite a um gestor selecionar
informações de interesse e suas formas de apresentação de acordo com seu contexto, além
disso a arquitetura propõe a inclusão de mecanismos para a colaboração.
85
6 PROPOSTA DE SOLUÇÃO
Para ilustrar a aplicabilidade da abordagem e ajudar na compreensão deste trabalho esta seção
apresenta um cenário em forma de uma pequena história fictícia.
“Coronel Ailton é o coordenador da Defesa Civil da cidade do Rio de Janeiro. Uma de suas
atribuições é monitorar o impacto das chuvas e seus riscos eventuais (enchentes, instabilidade
de encostas, etc.) para prevenção de desastres naturais.
Para o monitoramento das chuvas sua equipe instalou em alguns pontos da cidade medidores
pluviométricos automáticos que enviam os dados via GPRS a cada 15 minutos. Os dados
enviados são: data, hora, precipitação e local da estação pluviométrica.
Para o Coronel esses dados são úteis não apenas para a Defesa Civil, mas também para
diversos órgãos da Prefeitura que precisam estar preparados para tomar decisões e orientar
a população”.
Por meio do cenário de uso apresentado é possível identificar que existe a necessidade de
transformação dos dados recebidos e monitoramento por meio de relatórios. Este cenário será
utilizado nos exemplos da arquitetura conceitual (Seção 6.2) e na arquitetura de software
(Seção 6.4).
O modelo raiz representa todos os dados disponíveis no domínio em seu estado bruto.
Geralmente, esses dados fazem parte das bases de conhecimento de diversos sistemas
computacionais ou são carregados pelo próprio usuário. Este modelo é dividido em etapas,
conforme a Figura 32.
& "
"
De acordo com Valiati (2008), dados descrevem fenômenos (ou processos) ou entidades que
são objeto de estudo ou análise. Estes correspondem a atributos (ou variáveis) que podem ser
caracterizados de acordo com diferentes critérios. Cada atributo pode ser armazenado em uma
estrutura de dados e ser classificado de acordo com sua semântica e com suas dependências
funcionais em relação a outros atributos.
A caracterização de dados é de grande importância e deve ser a consideração inicial a ser feita
no processo de escolha de uma visualização. Nesta tese consideraremos os critérios definidos
por Freitas Freitas e Wagner (1995). Exemplo desta caracterização pode ser encontrado na
Tabela 8.
89
O critério Tipo de valores diz respeito aos tipos primitivos que os atributos podem assumir,
ou seja, se os atributos podem assumir valores alfanuméricos ou numéricos, dentre uma
enumeração finita ou infinita, ou podem ser compostos de valores simbólicos, representando a
identificação de uma entidade ou fenômeno associado.
Os dados também podem ser classificados de acordo com a Natureza do domínio, no qual
sinaliza se o dado está definido em um domínio discreto, restrito ao um conjunto finito ou
infinito de elementos, em um domínio contínuo ou em um domínio contínuo-discretizado. Por
90
Cabe ressaltar que outras características também podem ser consideradas como: frequência de
atualização, fontes dos dados, entre outros.
As informações que compõe esse modelo podem ser obtidas através de seleção explícita e/ou
transformações (Figura 33).
Neste modelo é o usuário quem seleciona as informações do seu interesse de acordo com seu
contexto, que é representado pela sua tarefa, disponibilidade dos dados, bem como as suas
preferências individuais. Quanto aos métodos para transformações, eles permitem ao usuário
operar diretamente sobre os atributos e os dados, os quais serão detalhados a seguir.
• Filtro de atributos: este método tem como objetivo remover atributos julgados
irrelevantes para o contexto. Este filtro desabilita atributos mediante alguma condição
ou mediante a exclusão explícita. As condições previstas são determinadas pelas
características da informação:
o Classe;
o Tipo;
o Natureza;
o Dimensão;
91
o Frequência de atualização;
o Fonte dos dados.
• Limpeza: este método tem como objetivo remover atributos julgados irrelevantes para
o contexto. As estratégias para limpeza consistem em eliminar registros que não
satisfaça algum critério, tais como:
o Ignorar registros;
o Completar manualmente os valores faltantes;
o Substituir por uma constante global;
o Usar média para preencher os valores faltantes;
• Integração: este método tem como objetivo integrar informações armazenadas em
diferentes fontes ou bases.
• Geração de atributos derivados: este método tem como objetivo gerar novos atributos
relevantes. A partir dos dados brutos o usuário poderá criar novas informações. Os
atributos derivados podem ser obtidos a partir de diversas operações, tais como:
o Operações matemáticas como multiplicação, soma, etc;
o Sumarizações;
o Transformações de tipos (ex. tipo numérico para um tipo alfanumérico);
o Combinação lógica de dois ou mais dados brutos: SE...ENTÃO;
'
* "
%
% %
(com uso de cores e símbolos geométricos), imagens reais (figuras ou vídeos) ou mapeamentos
(de um objeto ou espaço físico) até representações mais complexas através do uso de
diagramas (árvores, redes e grafos) ou metáforas visuais, fazendo referência a relacionamentos
e conceitos abstratos.
Esta etapa tem como objetivo permitir que o usuário defina as formas de apresentação que irão
compor o dashboard. Uma vez que na etapa anterior cada informação foi mapeada para uma
ou mais formas de visualização, o usuário pode escolher qual visualização é a mais adequada
para o contexto dele, definindo o seu espaço de trabalho (Figura 37).
94
Figura 37 Espaço de trabalho que é representado pela seleção das informações e formas de apresentação
definidas pelo seu contexto
Esta etapa tem por objetivo permitir que o usuário efetue alguns tipos de transformações sobre
as visualizações, possibilitando extrair da visualização mais informação do que seria possível
estaticamente. Por meio do estabelecimento de parâmetros gráficos, o usuário pode efetuar
uma transformação de visão com sua necessidade. O usuário pode interativamente criar novas
visões (ex. modificar o nível de zoom) ou alertas (ex. fazer a tela piscar ou emitir um sinal
sonoro) que os ajudem a identificar mudanças contextuais que carecem de atenção. De acordo
com Card, Mackinlay e Shneiderman (1999) existem três tipos comuns de transformações de
visão, os quais serão detalhados a seguir.
Adicionalmente a criação das visões estão previstos outros mecanismos de interação através de
alertas. A criação de alertas é feita por proposições SE...ENTÃO e permite que o usuário
defina alguns eventos como:
• Piscar a tela;
• Emitir um sinal sonoro.
95
SE “Precipitação (mm) – últimas 24h” MAIOR QUE “25” ENTÃO “Piscar a tela”
Conforme descrito na seção 3.5 existem momentos que não é mais possível para um único
usuário enfrentar os imensos conjuntos de dados disponíveis e tomar decisões isoladamente.
Para isso, buscou-se na área de Visualização Colaborativa formas de transcender os
tradicionais sistemas de visualização, passando de uma estrutura monolítica – somente um
usuário interagindo – para uma estrutura com suporte a colaboração.
Para se construir um sistema que atenda ao funcionamento descrito nas seções 6.2 e 6.3 foi
idealizado uma arquitetura centralizada seguindo o modelo cliente-servidor. Neste tipo de
arquitetura todo o gerenciamento e o processamento necessário para execução da aplicação
serão realizados no servidor, conforme mostrado na Figura 39. Quando o usuário interage com
a interface cliente, todos os eventos gerados por essa interação são enviados ao servidor que os
trata por meio dos módulos de seleção e apresentação.
97
Nas subseções a seguir serão detalhados cada um dos módulos e seus componentes
relacionados na arquitetura. A definição destes módulos incluiu decisões de projeto em termos
de: linguagens de programação; tecnologias/plataformas utilizadas; métodos e ferramentas
para acesso e recuperação de dados; entre outros.
98
Como resultado desta etapa, todo o conteúdo extraído das fontes de dados será condensado e
encaminhado para o módulo de armazenamento, seguindo um formato padrão web (XML,
JSON ou outro), conforme o exemplo mostrado na Figura 40.
99
De acordo com Jastrow e Preuss (2015) em bancos de dados relacionais todas as colunas (ou
atributos) e seus tipos devem ser especificados pelo desenvolvedor do aplicativo antes da
implantação. Com uma abordagem diferente dos bancos de dados relacionais, o modelo EAV
armazena dados seguindo um esquema baseado em linhas. Basicamente, os dados são
concentrados em uma tabela que armazena em cada linha uma entidade (um objeto ou evento
sobre o qual se deseja manter um registro), um atributo (propriedade ou característica que
descreve uma entidade) e seu respectivo valor.
100
Comparado com o modelo relacional, esses campos são associados, respectivamente, a uma
entrada, um campo e seu valor associado em uma tabela. Assim, usando EAV, é possível
definir atributos diferentes para cada entidade, mesmo que estes pertençam à mesma classe, e
sem a existência de campos nulos na base de dados. Além disso, os atributos de uma entidade
podem ser alterados sem afetar a estrutura do banco de dados (MOURA et al., 2008).
De acordo com MIYOSHI (2013), existem alguns casos em que o modelo EAV é preferível
quando comparado ao modelo relacional:
A Figura 44 mostra uma proposta de interface de seleção e o resultado dessa interação. Após o
usuário escolher uma determinada entidade, ele pode selecionar de forma explícita os
atributos, bem como as possíveis associações entre as entidades.
103
As estruturas visuais serão geradas a partir da biblioteca javascript, como D3.js ou Google
Charts. Optou-se por essas bibliotecas devido a sua flexibilidade na utilização de padrões da
web, como HTML5, CSS3 e SVG. Além de sua capacidade de suportar grandes conjuntos de
dados, sua extensa variedade de estruturas visuais e comportamentos dinâmicos de interação e
animação. A Figura 45 mostra algumas das estruturas visuais disponíveis na biblioteca D3.js.
Já a Figura 46 mostra um trecho de código da mesma biblioteca javascript e o resultado para o
usuário.
Cabe destacar que a estrutura visual pode ser construída por meio de várias linguagens gráficas
respeitando diferentes técnicas de visualização. Portanto, se houver necessidade outras
bibliotecas podem ser incorporadas.
O segundo componente é o “Gerador de alertas”. Por meio deste componente o usuário pode
definir eventos de alertas a serem enviados para o módulo de interface. Estes eventos foram
descritos na subseção 6.2.3.
Do lado do sistema cliente temos o módulo de interface que é responsável por apresentar no
dashboard o resultado das interações dos usuários. Utilizando-se de um browser cada usuário
pode definir o seu próprio dashboard. Obviamente, deve-se levar em conta os princípios
fundamentais para o seu desenvolvimento, conforme descrito na seção 4.2.
Cabe destacar que neste módulo é executado apenas serviços de apresentação e interação da
interface gráfica. Quando o usuário interage com o sistema cliente, os eventos de interface
106
gráfica referentes a essa interação são gerados pelo módulo de interface, mas não são tratados
localmente. Esses eventos são tratados no lado do servidor através dos módulos de seleção e
apresentação.
A arquitetura conceitual está relacionada com a abordagem da tese. Ela forneceu uma visão
geral da organização dos dados e as funcionalidades do sistema. Seu detalhamento apresentou
um processo de seleção e apresentação de informações através de uma transição entre
modelos. Esse processo começa com a geração dos dados do domínio e termina com as formas
de apresentação adequadas para cada tipo de informação em um dashboard.
elas associados. Algumas das tecnologias utilizadas foram: PHP, HTML 5, CSS 3, SVG,
JQuery e bibliotecas como D3.js e Google Charts. O sistema desenvolvido foi denominado de
Emergency Dashboard. A Figura 47 mostra uma das interfaces do sistema, outras telas do
sistema serão apresentadas no Capítulo 8 ao longo do detalhamento dos estudos de caso.
Por fim, uma importante consideração a ser ressaltada nessa proposta é a opção de deixar a
cargo dos usuários a escolha das informações e formas de apresentação de acordo com seu
contexto. Essa escolha deve-se ao fato de que em ambientes complexos os usuários prefiram
tomar suas próprias decisões ao invés de deixá-las para um sistema inferir de forma implícita.
Espera-se que a solução ajude aos usuários a identificar informações de interesse que careçam
de atenção imediata. O dashboard deve manter a percepção da situação com a última
informação existente (de acordo com a frequência de atualização definida pelo usuário) e usar
mecanismos de visualização para uma fácil interpretação.
108
7 TRABALHOS RELACIONADOS
Döweling et al., (2009) apresentam o projeto SoKNOS. O projeto é motivado pela visão de
fontes de informação heterogêneas perfeitamente integradas, que permitem às organizações de
emergência colaborar de uma forma eficiente. A proposta é permitir que os tomadores de
decisão: encontrem e integrem rapidamente informações de ambientes heterogêneos e
distribuídos; explorem visualmente a situação de forma individual ou colaborativa, através da
combinação de diferentes análises visuais; e criem novas informações. Para isto, os autores
propõem uma arquitetura que segue o paradigma de orientação a serviços e métodos que
permitem a avaliação da interoperabilidade semântica das fontes de informação utilizadas de
forma colaborativa.
Gupta e Knoblock (2010) apresentam uma abordagem para visualização de dados em mashups
geoespaciais que permitem que os usuários personalizar a visualização de dados. De acordo
com os autores mashups geoespaciais podem ser uma solução eficaz em ambientes sensíveis
110
ao tempo, tais como gestão de desastres, onde os tomadores de decisão sofrem com a
sobrecarga. Os autores apresentam uma abordagem que permite extrair, integrar e visualizar
informações diversas.
Engelbrecht et al. (2011) propõem um modelo para avaliação da informação com relação a sua
utilidade a cada momento. O trabalho toma como domínio de aplicação, postos de comando
perto de áreas afetadas por grandes catástrofes, em que um comando unificado, composto por
pessoas com diferentes habilidades e objetivos, trabalham em conjunto para resolver a
situação. De acordo com os autores uma das maiores dificuldades no apoio a posto de
comando é filtrar as informações que devem estar disponíveis e fornecê-las no momento certo
para as pessoas certas. Para atender a esta demanda, os autores utilizaram técnicas de Análise
do Trabalho Cognitivo (ATC), para elicitar um conjunto de requisitos que pudesse apoiar a
colaboração e a disponibilidade da informação em situações de emergência. O modelo obtido
baseia-se em métodos multicritério de tomada de decisão e foi aplicado em uma ferramenta
colaborativa desenvolvida para visualização em uma mesa multi-touch.
Ibarra et al. (2012) apresentam uma estratégia para selecionar e visualizar os “pontos de
interesse” (PDI) mais relevantes em um mapa digital, de acordo com a área de influência da
emergência. Esta estratégia foi implementada na ferramenta MobileMap, que apoia a tomada
de decisão dos bombeiros em emergências urbanas. Com o uso da ferramenta MobileMap os
usuários podem selecionar os PDIs mais importantes em um intervalo, e em seguida,
apresenta-los de uma forma simples, permitindo uma leitura rápida para compreensão por
parte dos utilizadores. A estratégia propõe a utilização de um código de cores, ícones simples e
representativos, além de atualização regular da informação, como uma forma eficaz de
fornecer informações aos usuários finais.
111
Hsu et al. (2012) descrevem a dificuldade que médicos possuem para acessar e visualizar
informações clínicas a partir de uma multiplicidade de fontes. Os autores propõem a criação de
um Electronic health records (EHRs) baseado em contexto para lidar com o problema de
sobrecarga de informações. Para isto, os autores desenvolveram um framework e sistema –
denominado Adaptive EHR – que agrega e extrai conclusões e atributos de relatórios clínicos
de texto livre, mapeia as conclusões para conceitos em fontes de conhecimento disponíveis, e
gera uma apresentação personalizada do registro com base nas necessidades de informação do
usuário. O sistema utiliza ontologias biomédicas como fontes de conhecimento de domínio
para identificar partes relevantes do registro a ser exibido.
Schulz et al. (2012) apresentam uma solução para estruturação e fusão de conteúdo gerado por
usuários em gestão de desastres. A solução permite a identificação de incidentes individuais
em um fluxo de entrada de relatórios de incidentes. O objetivo é identificar relatórios sobre o
mesmo incidente e mescla-los usando regras que exploram a informação espacial, temporal e
temática. Dessa forma, pode-se obter uma representação completa do incidente, melhorando a
percepção da situação e facilitando a triagem de informações para os tomadores de decisão.
Para facilitar a análise dos trabalhos descritos anteriormente foi desenvolvida a Tabela 9 que
resume as principais diferenças e similaridades entre os trabalhos apresentados e a abordagem
proposta nesta tese. Para isto, foram adotados os seguintes critérios comparativos entre os
trabalhos:
Independente
Trabalho Integração Customização Flexibilidade Monitoramento
de domínio
Analisando a Tabela 9 pode-se observar que a maioria dos trabalhos não são independentes de
domínio. Além da proposta desta tese, a exceção foi o trabalho desenvolvido por Andrienko e
Andrienko (2007) que propõem o uso de ontologias de domínio para descrição das
informações, desta forma segundo os autores a proposta poderia ser estendida a outros
domínios.
Por fim, com relação ao critério de monitoramento somente os trabalhos de Gupta e Knoblock
(2010) e Schulz et al. (2012) não abordam este critério, o que poderia ser justificado pelo
escopo desses trabalhos.
Os critérios utilizados para analisar os trabalhos relacionados serviram para posicionar nossa
pesquisa e também, como insumo de melhorias para nossa abordagem. Finalmente, é
importante ressaltar que o problema abordado também é alvo de várias pesquisas em outros
domínios. A escolha de restringir ao domínio de emergência foi uma oportunidade e um
desafio adicional, já que neste tipo de ambiente complexo o problema da sobrecarga de
informações se torna ainda mais difícil de lidar.
8 AVALIAÇÃO DA PROPOSTA
Este capítulo descreve dois estudos que visam a avaliação da hipótese que orienta a tese. Em
ambos estudos de caso são descritos o processo atual (como é feito) e o processo futuro
(abordagem proposta na tese) das atividades realizadas. Além disso, ao final de cada estudo é
apresentado uma discussão quanto as evidências da sobrecarga de informação encontradas ao
se comparar os processos.
Como o fenômeno a ser estudado é amplo, complexo, de difícil quantificação e não pode ser
estudado fora do contexto onde ocorre naturalmente, optou-se pela realização de estudos de
caso em uma abordagem quali-quantitativa. De acordo Kaplan e Duchon (1988), a combinação
metodológica é considerada uma forma robusta de se produzir conhecimentos, uma vez que se
superam as limitações de cada uma das abordagens tradicionais (qualitativa e quantitativa).
Para a abordagem quantitativa buscou-se uma medição objetiva do tempo gasto na execução
das atividades realizadas pelos gestores. Essas atividades estão relacionadas ao processamento
das informações que são de interesse para a produção de algum conhecimento ou tomada de
117
decisão. Para a abordagem qualitativa buscou-se uma maior profundidade e abrangência das
evidências de sobrecarga de informações, o qual foram obtidas e trianguladas por meio de
múltiplas fontes de coleta de dados, como observações, entrevistas, análise de documentos e
conversas informais, permitindo ao pesquisador detalhes informais e relevantes dificilmente
alcançados somente com o enfoque quantitativo.
As Seções 8.3 e 8.4 apresentam dois estudos realizados com objetivo de avaliar a hipótese. Em
ambos estudos de caso são descritos o processo atual (como é feito) e o processo futuro
(abordagem proposta na tese) das atividades realizadas. Além disso, ao final de cada estudo é
apresentado uma discussão quanto as evidências encontradas ao se comparar os processos.
Para uma efetiva condução dos estudos de caso foi realizado um planejamento operacional em
sete etapas:
Estudo 1 (Seção 8.3): este estudo foi realizado junto ao Grupamento Técnico de Suprimento
de Água para Incêndios do Estado do Rio de Janeiro.
Estudo 2 (Seção 8.4): este estudo foi realizado junto a Secretaria de Defesa Civil e Políticas
de Segurança da Prefeitura de Duque de Caxias.
Para a realização da pesquisa, foi solicitada autorizações para acompanhamento das equipes de
emergência. Essa autorização se deu por parceria firmada entre as instituições e o pesquisador
118
com a finalidade da realização deste estudo acadêmico. No acordo de parceria foram dadas
garantias de que os propósitos e os procedimentos da pesquisa não trariam consequências
negativas de ordem ética em relação aos participantes e instituições às quais eles estiverem (ou
estejam) associados. Nesse sentido, os dados obtidos na pesquisa foram utilizados sem a
identificação real dos participantes, para garantir o anonimato dos mesmos.
8.3. ESTUDO 1
O estudo 1 foi realizado junto ao o Grupamento Técnico de Suprimento de Água para Incêndio
(GTSAI) no acompanhamento de uma de suas principais atividades. Neste estudo são descritos
os processos atual (como é feito) e o futuro (abordagem proposta na tese), além de discutidos
as evidências relacionadas ao problema de sobrecarga de informações.
Quando uma emergência é reportada, equipes de resposta são enviadas para o local a fim de
realizar uma avaliação do ambiente e dos recursos disponíveis para lidar com a situação. Em
muitos casos, a agência de resposta não possui informações sobre o que irá encontrar no local
da emergência (por exemplo, existem hidrantes? Onde estão localizados?). Este tipo de
informação é crucial para o sucesso das missões. Portanto, existe uma preocupação constante
em manter este tipo de informação atualizada e disponível.
O Grupamento tem hoje uma preocupação com o uso racional da água no combate a incêndios
por todas as unidades operacionais do Estado. Assim a reutilização da água, o funcionamento e
a manutenção dos hidrantes urbanos são os pontos centrais na questão do suprimento de água
para o combate a incêndio.
A Figura 48 mostra o processo atual em uma sequência lógica, bem como o tempo gasto na
execução de cada uma das atividades (assinaladas em azul).
1. Coleta de informações (em papel) sobre recursos hídricos, hidrantes e pontos críticos;
2. Entrada de informações em sistemas de informações do CBMERJ;
3. Exportação das informações do sistema para planilhas Excel;
4. Preparação dos dados (filtragem, sumarização, etc.);
5. Criação e formatação do relatório;
6. Análise e tomada de decisão.
O período de coleta de dados e evidências na execução do processo atual foi realizado entre
fevereiro e junho de 2016. A partir das observações in loco, entrevistas não estruturadas e
conversas informais realizadas com dois oficiais experientes do comando GTSAI, foram
identificados alguns problemas que vão ao encontro aos abordados nesta tese, tais como: a
multiplicidade de informações extraídas de diferentes fontes que competem pela atenção dos
120
Cabe também destacar que as medidas de tempo para cada atividade foram obtidas durante as
suas observações. O tempo necessário para execução de todo o processo conforme mostrado
na Figura 48 foi em torno de 350 min. Entretanto, considerando apenas as atividades
realizadas pelo comando para o processamento de informações este tempo foi em torno de 200
min. Cabe ressaltar que o tempo computado pode ser superior se levarmos em conta as
interrupções do ambiente ou qualquer outra atividade que possa ocorrer em paralelo.
Os participantes do processo atual, bem como suas responsabilidades são detalhados na Tabela
10.
O processo atual é iniciado a partir do momento que uma equipe designada pelo comandante
do quartel sai a campo para coletar informações (Figura 49). Como não existe um sistema que
suporte a atividade de coleta, as informações são registradas em papel e, em seguida, uma vez
que a equipe retorna ao quartel, essas informações são inseridas no sistema VICON3 –
Vigilância e Controle – no Projeto PGORH4.
3
O sistema Vicon (http://www.viconsaga.com.br) é uma iniciativa 100% nacional e livre de custos, que foi
desenvolvida pelo Laboratório de Geoprocessamento da UFRJ – LAGEOP/UFRJ em parceria com o Laboratório
de Geoprocessamento Aplicado da Universidade Federal Rural do Rio de Janeiro.
4
Plano de Gerenciamento Operacional de Recursos Hídricos
122
As atividades de coleta são realizadas por cerca de 100 quarteis no Estado do Rio de Janeiro.
Uma vez que as informações estão disponíveis nos sistemas de informação dos bombeiros, o
comando extrai informações para planilhas do Microsoft Excel e então, prepara e consolida as
informações em um relatório (Microsoft Word) com objetivo de monitorar os recursos
disponíveis, além de verificar se os quartéis estão cumprindo a atividade da “Corrida de Área”
corretamente. A criação dos relatórios é realizada por um suboficial do comando GTSAI e
então, compartilhada para todos os integrantes do comando e os responsáveis pelos quartéis,
no qual possuem a competência de acompanhar a atividade da “Corrida de área”. Um exemplo
do relatório gerado é mostrado na Figura 50.
A Figura 51 mostra o processo futuro realizado em uma sequência lógica, bem como o tempo
gasto na execução de cada uma das atividades (assinalado em azul). Este processo mantêm as
atividades do quartel e incorpora, por meio do uso do sistema, novas práticas para execução
das atividades de seleção e escolha das formas de apresentação a compor o dashboard. Além,
da criação de alertas para monitoramento em tempo real das informações coletadas.
1. Coleta de informações (em papel) sobre recursos hídricos, hidrantes e pontos críticos;
2. Entrada de informações em sistemas de informações do CBMERJ;
3. Configuração das fontes de dados por meio do modelo raiz;
4. Extração de dados via web service;
5. Definição do conjunto de informações do usuário por meio do modelo de seleção
contextual:
a. Seleção explicita das informações;
b. Realização de transformações nas informações (operações analíticas);
6. Escolha das formas de apresentação a compor o dashboard:
a. Escolha dos atributos;
b. Mapeamento de informações para uma ou mais formas distintas de
visualização;
c. Escolha da forma de apresentação para as informações (gráficos, tabelas,
mapas);
d. Escolha do dashboard para inserção dos componentes visuais;
7. Abertura do dashboard;
8. Criação de alertas para monitoramento;
9. Análise e tomada de decisão.
124
20 min
15 min
10 min
Conforme mencionado, o processo futuro tomou como base o processo atual descrito na Seção
8.3.1. Para sua realização foi escolhida a área de atuação do próprio GTSAI, que tem sede no
bairro do Caju na cidade do Rio de Janeiro. Para coleta de dados e evidências foram utilizadas
as mesmas técnicas descritas no processo atual. Assim como no processo atual, as medidas de
tempo para cada atividade foram obtidas durante as observações. O tempo necessário para
execução de todo o processo conforme mostrado na Figura 51 foi em torno de 195 min. E,
novamente levando em conta apenas as atividades de processamento de informações
realizadas pelo comando, o tempo gasto para processamento das informações foi em torno de
45 min.
Antes de iniciar efetivamente o processo futuro foi realizado junto ao operador do sistema
(Comando – Operador) um treinamento. Durante o treinamento foram apresentados exemplos
de como construir um dashboard utilizando o sistema e os erros mais comuns ao se planejar
um dashboard descritos na Seção 4.3. Após isso, todo o fluxo de atividades previsto para o
comando GTSAI apresentado na Figura 51 foi realizado. Entretanto, neste primeiro momento
utilizou-se apenas dados referente ao mês de janeiro de 2016, o qual foram extraídos
diretamente do sistema VICON no formato xls e importados manualmente para o sistema
Emergency Dashboard.
O treinamento foi realizado em duas reuniões com duração aproximada de 80 min. Ao longo
do treinamento também foi possível coletar informações adicionais para aperfeiçoamento do
sistema, bem como contribuições na detecção de ‘bugs’, tais como: problemas na interface,
usabilidade e desempenho computacional.
Finalizado o treinamento e a fim de utilizar dados reais coletados em tempo real para a
realização do processo futuro, foi desenvolvido um serviço web para extração dos dados
diretamente do sistema VICON. Este processo de extração foi desenvolvido em parceria com
Laboratório de Geoprocessamento da UFRJ – LAGEOP/UFRJ e em parceria com o
Laboratório de Geoprocessamento Aplicado da Universidade Federal Rural do Rio de Janeiro.
O serviço web foi criado baseando-se na API5 já disponível e documentada do projeto
VICON.
A partir disto, a simulação foi realizada no dia 13 de junho de 2016 durante uma atividade
operacional publicada em diário oficial. Cabe destacar que a simulação ocorreu com foco no
fluxo de atividades realizado pelo comando GTSAI. Entretanto, as atividades realizadas pelos
outros participantes poderiam ocorrer de forma simultânea. Por exemplo, enquanto o comando
monitora informações, a equipe de campo poderia atualizar ou registrar novas informações.
Por fim, as atividades realizadas pelo comando GTSAI foram iniciadas a partir de uma
demanda do comandante por informações atualizadas da “Corrida de Área”. A partir disto, o
operador definiu a seleção das informações de acordo com o contexto da tarefa utilizando o
modelo de seleção contextual. A Figura 54 mostra a interface do sistema Emergency
Dashboard com as opções de escolha para definição de um conjunto de dados. No caso desta
tarefa o operador definiu quais os conjuntos de dados do sistema VICON seriam importantes.
5
Maiores informações sobre a API podem ser obtidas em http://viconsaga.com.br/help/api
129
Uma vez definida a fonte de dados o operador selecionou as informações e realizou uma série
de operações analíticas para refinamento das informações. As atividades que foram realizadas
foram:
Além do quadro operacional comum por meio do uso do dashboard, o comando solicitou a
criação de alertas para fins de monitoramento da atividade realizada pela equipe de campo. A
Figura 58 mostra o alerta criado. Uma vez que a condição fosse satisfeita a visualização
correspondente iria piscar na tela, além de ser disparado um alerta sonoro.
132
8.3.3. Discussão
As avaliações realizadas durante a execução dos processos atual e futuro, junto ao GTSAI,
permitiram coletar dados e evidências sobre os problemas de sobrecarga de informações
enfrentados pelos gestores.
O estudo foi realizado considerando dados reais, obtidos em tempo real, durante uma atividade
operacional de rotina que é a “Corrida de Área”. Esta atividade é regulamentada em todo o
Estado do Rio de Janeiro e publicada em boletim do CBMERJ.
Durante a realização do processo atual e futuro foram coletadas evidências quanto ao tempo de
processamento das atividades. Comparando o tempo total registrado na execução das
atividades do comando em ambos os processos, se obteve uma redução de quase de 80% do
tempo. Isto sinalizou a eficiência que o uso da nova abordagem e sistema trouxe em relação a
realização das atividades do comando atualmente empregadas. Entretanto, é importante
salientar que o resultado obtido durante a realização do processo futuro diz respeito a um
único quartel. Ou seja, ao contrário do processo atual que o processamento das informações e
o relatório gerado é de responsabilidade estritamente do comando GTSAI, no processo futuro
o processamento das informações ficaria sob a responsabilidade de cada gestor (cada quartel
133
seria auto responsável). Esse ponto, a princípio, significou uma dificuldade para o comando.
Pois, o comando centraliza as ações de controle, fornecendo apenas relatórios já consolidados
das ações para os quartéis. Visto isso, para contornar essa dificuldade o comandante solicitou
que para a próxima etapa6 fossem previamente criados todos os dashboards (para cada
quartel). Deixando para os quartéis os dashboards (já prontos) apenas para fins de
comunicação e controle.
Fatores pessoais
Ao longo das observações dos processos atual e futuro foi possível perceber o esforço que o
comando (operador) fez para manter o controle da quantidade de informações e lidar com a
sobrecarga. Suas ações tendem a filtrar ou até omitir informações, de forma a aumentar a
quantidade de informações úteis. Por exemplo, no processo atual o esforço é concentrado no
processamento das informações em planilhas Excel a fim de gerar o relatório com as
informações consolidadas. Esse relatório tem um formato pré-determinado e tem a finalidade
de comunicar a execução da “Corrida de Área” de forma simplificada. Entretanto, qualquer
mudança solicitada no formato deste relatório, poderia significar um trabalho adicional que
nem sempre é possível de ser realizado imediatamente (quer seja pela pressão do tempo ou
desconhecimento do potencial da ferramenta). Já para a realização do processo futuro, a
atividade de definição das informações úteis também é realizada. Entretanto, essa atividade, a
princípio, seria realizada uma única vez. Pois, uma vez definido o conjunto de informações e
escolhido a forma de apresentação adequada, o comando iria monitorar o andamento por meio
6
A próxima etapa diz respeito ao sistema implantado e em pleno uso pelo CBMERJ
134
Características da Informação
“Se o quartel está mais dinâmico é por que ele está produzindo mais. A
frequência de lançamento é importante, quer seja atualizando ou incorporando
novos dados no VICON, mas esses dados devem ser de qualidade. Temos que
ter o controle do que é registrado no VICON”.
acordo com a preferência do usuário. Além disso, para fins de restringir o acesso somente a
informações relevantes, o comando sugeriu que cada quartel visualizasse informações já
filtradas ao seu contexto. Durante o treinamento um dos relatos do comando (operador) foi:
“Seria importante cada quartel ter seu próprio acesso ao dashboard, vendo
somente suas próprias ações já filtradas. Dessa forma, cada quartel poderia
acompanhar seu próprio cumprimento da meta total. Também é importante
para o grupamento poder ver toda a área mês a mês. Uma vez que definirmos a
meta, cada quartel deve acompanhar sua própria situação em tempo real e o
Estado Maior pode ter uma percepção geral do que está ocorrendo”.
Tarefas e processos
A complexidade da tarefa é outro fator que contribui para a sobrecarga de informações. Tanto
no processo atual como no futuro o processamento de informações relatado possui
interdependência. O processamento da informação não é uma tarefa trivial e requer ao
comando experiência para lidar com os dados. Além disso, a grande quantidade de
informações aliado a pressão do tempo, podem levar a sobrecarga de informações.
parou, gastando tempo e aumentando o esforço mental. Esta dificuldade pôde ser observada
em ambos os processos descritos.
Desenho organizacional
Tecnologia da informação
8.4. ESTUDO 2
A Figura 59 mostra o processo atual em uma sequência lógica. O tempo total gasto na
execução das atividades não foi computado para este processo. Pois, durante as visitas
realizadas não houve uma situação adversa real no qual pudesse ser realizado um
monitoramento. Dessa forma, a observação do processo atual de monitoramento foi simulada
considerando um caso fictício de uma frente fria. Além disso, mesmo que ocorresse uma
situação real, não seria aplicável a computação do tempo pois o monitoramento só seria
encerrado na normalização da situação.
138
A coleta de dados e evidências na execução do processo atual foi realizada entre junho e julho
de 2016. A partir das observações in loco, entrevistas não estruturadas e conversas informais
realizadas com membros da equipe de meteorologistas, foram identificados alguns problemas
que vão ao encontro aos abordados nesta tese, um relato pelo assessor-chefe da meteorologia
foi:
Os participantes do processo atual, bem como suas responsabilidades são detalhados na Tabela
12. Entretanto, durante a coleta de dados e evidências o contato realizado foi apenas com o
assessor-chefe da meteorologia e com um estagiário.
Assim como no estudo 1 a realização do processo futuro teve como objetivo verificar se os
problemas relacionados a sobrecarga de informações foram reduzidos. A Figura 60 mostra o
processo futuro proposto em uma sequência lógica. Este processo mantêm as atividades da
equipe de meteorologista quanto ao acompanhamento das informações contextuais. Entretanto,
incorpora por meio do uso do sistema, as mesmas práticas já mencionadas no estudo 1 para
execução das atividades de seleção e escolha das formas de apresentação a compor o
dashboard. Cabe destacar que no caso das informações meteorológicas apresentadas neste
estudo não foi possível a criação de alertas. A criação de alertas foi substituída pelo
7
Termo usado pelo assessor-chefe da meteorologia
141
monitoramento das fontes de informações previamente configuradas. Isto se deve ao fato que o
dashboard criado combina os sistemas de informação existentes em uma solução integrada ao
nível de interface do usuário. Ou seja, não é possível manipular dados bruto pois todas as
informações apresentadas são representações visuais (com mesma interface) dos sistemas de
informações legados, no qual os meteorologistas já acompanham normalmente.
O processo futuro tomou como base o processo atual descrito na Seção 8.4.1. Para coleta de
dados e evidências foram utilizadas as mesmas técnicas descritas no processo atual. Assim
como no processo atual, as medidas de tempo para cada atividade não foram obtidas durante as
143
observações. Especificamente para realização deste processo foram apenas montados alguns
dashboards em conjunto com o assessor-chefe da meteorologia.
A montagem dos dashboards foi realizada em uma atividade conjunto entre o pesquisador e o
assessor-chefe de meteorologia. Como resultado final foram criados os seguintes dashboards.
A Figura 61 apresenta o dashboard para o acompanhamento de radares.
144
8.4.3. Discussão
As avaliações realizadas durante a execução dos processos atual e futuro, junto a Secretaria de
Defesa Civil e Políticas de Segurança da Prefeitura de Duque de Caxias, permitiram coletar
dados e evidências sobre os problemas de sobrecarga de informações enfrentados pelos
gestores.
O estudo foi realizado considerando dados reais que são fornecidos em tempo real por
diferentes sistemas de informação. Durante as visitas realizadas não houve uma situação
adversa real no qual pudesse ser realizado um monitoramento. Entretanto, mesmo
considerando um caso fictício para realização das observações dos processos, foi possível
obter a rotina dos meteorologistas ao lidar com diversos sistemas de informação.
Nas observações pôde-se verificar que o meteorologista fica intercalando a aba dos sistemas
levando em conta as atualizações de cada um dos sistemas. Eles iniciam a rotina de
monitoramento analisando imagens de satélite para obter uma visão da atuação do sistema de
chuvas. Após isso o foco da atenção fica sobre os diferentes radares. Os radares mais
145
Fatores pessoais
Ao longo das observações dos processos atual e futuro foi possível perceber o esforço que os
meteorologistas fazem para manter atenção e diferentes sistemas de informação, analisar as
informações e tomar decisões. Além disso, um fator importante ressaltado pelo assessor-chefe
da meteorologia é que apesar dos sistemas serem determinísticos a experiência do
meteorologista é fundamental para interpretação das informações. Segundo o assessor-chefe a
proposta futura em consolidar tudo em uma única tela, permite lidar de uma melhor forma com
as informações. Durante a criação do dashboard o assessor-chefe da meteorologia ressaltou o
seguinte:
Características da Informação
Tarefas e processos
Em qualquer que seja o processo (atual ou futuro) o processamento das informações pelos
meteorologistas não é uma tarefa trivial e requer grande experiência para tomada de decisões.
Sobretudo no processo atual, a grande quantidade de informações em mapas aliado ao fato de
ter que intercalar entre os diversos sistemas podem levar a sobrecarga de informações.
Desenho organizacional
Tecnologia da informação
Neste capítulo foram apresentados dois estudos de caso com objetivo de evidenciar os
problemas da sobrecarga de informações em diferentes cenários de emergência. A partir da
identificação do problema foi proposto aos gestores o uso da abordagem e sistema
desenvolvidos na tese.
Para que os estudos de caso fossem realizados, foi definido um planejamento operacional da
pesquisa, estabelecendo quais abordagens e técnicas para coleta de dados seriam utilizadas,
assegurando o rumo da pesquisa e o rigor ético.
147
Ao longo dos estudos foram descritos e comparados os dois processos (atual e futuro). As
evidências encontradas sinalizaram que o uso de dashboards customizáveis são uma boa
solução para lidar com diferentes requisitos de informações que os cenários de emergência
podem demandar.
Neste capítulo são feitas algumas considerações sobre o trabalho de pesquisa descrito nessa
tese. Inicialmente é feito um resumo da pesquisa e, em seguida é explicitando as contribuições,
problemas encontrados ao longo do caminho e sugestões para prosseguimento do trabalho.
A sobrecarga de informação é um problema que deve ser sempre revisto, pois as pessoas, as
organizações e as tecnologias mudam constantemente. Nesta pesquisa foi investigado o
problema da sobrecarga de informação em ambientes complexos, delimitando o domínio a
ambientes relacionados a Gestão de emergências. Muitas vezes nestes ambientes não é
possível saber previamente quais informações são necessárias para o usuário ou qual é a
melhor forma de apresentação desta informação. Além disso, alguns desses ambientes
possuem uma multiplicidade de sistemas de informação, no qual competem pela atenção.
Para um melhor entendimento deste problema, foi realizado um estudo exploratório no Centro
Integrado de Comando e Controle da cidade do Rio de Janeiro (CICC-RJ). Neste estudo, além
do problema ser evidenciado, foi possível verificar que o sucesso dos gerentes depende de ter a
informação certa disponível, no momento certo, apresentada de uma forma adequada. Este
estudo também permitiu ao pesquisador elicitar requisitos essenciais que combinado com
levantamento bibliográfico na área de Visualização de informação e Dashboards, possibilitou
propor a hipótese de que a sobrecarga de informação pode ser reduzida, se o usuário definir de
maneira interativa o seu próprio espaço de trabalho, que é representado pela seleção das
informações e formas de apresentação definidas pelo seu contexto.
149
Para atender a hipótese de pesquisa, foi proposto uma abordagem e sistema que teve como
objetivo permitir ao gestor selecionar informações de interesse a partir de múltiplas fontes de
informação e possibilitar a escolha de visualizações apropriadas de forma rápida, fácil e
interativa. Nesse objetivo, foram propostas duas arquiteturas, uma conceitual e uma de
software. A primeira arquitetura fornece uma visão geral da organização dos dados e as
funcionalidades do sistema. Já a segunda arquitetura descreve a estrutura do sistema em
termos de componentes de software. Seguindo estas arquiteturas, foi desenvolvido o sistema
“Emergency Dashboard”, um sistema que fornece uma infraestrutura para selecionar
informações e a forma de apresentação, usando painéis configuráveis. Também foram
propostos mecanismos de colaboração, dado que às vezes, não é possível para um único
usuário lidar com essa grande quantidade de informações sozinho.
A solução proposta começa com a geração de dados de domínio e termina com a apresentação
de uma ou mais representações visuais em um dashboard. Através de uma transição entre
modelos, os gerentes podem selecionar a informação a partir de fontes de dados brutos,
realizar algumas operações analíticas e escolher as representações visuais apropriadas para
cada tipo de informação.
De maneira a avaliar a solução proposta nesta tese, foram realizados dois estudos de caso. Os
estudos foram realizados no Grupamento Técnico de Suprimento de Água – GTSAI/CBMERJ
e na Secretaria de Defesa Civil e Políticas de Segurança da Prefeitura de Duque de Caxias.
Optou-se por uma avaliação quali-quantitativa, objetivando coletar dados e evidências dos
problemas de sobrecarga de informações enfrentados pelos gestores. Em ambos estudos de
caso foram descritos e comparados o processo atual (como é feito) e o processo futuro
(abordagem proposta na tese) das atividades realizadas.
Pode-se citar ainda como contribuição, o legado do uso da abordagem e sistema proposto na
tese pelas equipes de emergência. Esta possibilidade para muitas equipes de emergência no
Brasil representa uma inovação no que diz respeito a criar uma infraestrutura de comando e
controle a baixo custo. Além disso, conforme apresentado nos estudos de caso (Capítulo 8),
para a solução foi levado em conta a automatização de processos. Para os dois estudos de caso
apresentados foram realizadas análises dos processos atual e futuro. O uso de uma nova
abordagem materializada no processo futuro levou em conta um redesenho dos processos para
resolver o problema de sobrecarga de informações. Este redesenho buscou facilitar o trabalho
dos operadores, automatizando – quando possível – tarefas que vão desde a coleta até a
visualização das informações.
Por fim, no que tange a produção científica oriunda dessa tese ou relacionadas ao domínio de
aplicação, foram publicados trabalhos em eventos internacionais e nacionais, listados a seguir:
Supported Cooperative Work, 2013, San Antonio, TX. Workshop on Trust in Virtual
Teams, 2013.
• MARINO, T. B.; NASCIMENTO, Bruno Santos Do; BORGES, M. R. S.. GIS
Supporting Data Gathering and Fast Decision Making in Emergencies Situations. In:
International Conference for Information Systems for Crisis Response and
Management, 2012, Vancouver. 9th International Conference for Information Systems
for Crisis Response and Management, 2012. v. 1.
Uma das principais dificuldades no desenvolvimento deste trabalho, foi sem dúvida a
necessidade do envolvimento de especialistas do domínio de aplicação. Esta dificuldade ao
longo da pesquisa foi superada através de parcerias firmadas entre o pesquisador e as
diferentes agências de emergência.
informações abordados nesta tese. Dessa forma, nossa recomendação é que a solução seja
testada em outros domínios de forma a aprimorar a abordagem e sistema pospostos.
Outra limitação já de cunho técnico diz respeito a integração de dados entre os diferentes
sistemas de informação disponíveis. A este respeito, considera-se como possível solução o uso
de recursos da iniciativa da Web Semântica, assim como sugerido em (CORDEIRO et al.,
2011).
realizadas pelos gestores dessas agências. De uma forma geral, deve-se obter
informações sobre qual é a atividade realizada, quais são as informações
disponíveis, como realizar a integração de novas fontes de dados e etc.;
• Implementar novas possibilidades de visualização: outras formas de
visualização podem ser adicionadas ao sistema. Para isto, novas bibliotecas de
visualização devem ser estudas e incorporadas;
• Estudar a facilidade de uso do sistema Emergency Dashboard: uma nova frente
de desenvolvimento do trabalho deve abranger aspectos relacionados à facilidade
de uso, dessa forma espera-se evoluir o sistema com intuito de cada vez mais
diminuir o esforço cognitivo dos usuários;
• Aprofundar pesquisas sobre o uso de dashboards colaborativos: o uso de
dashboards colaborativos está se tornando cada vez mais importante, dada a
natureza distribuída das equipes. Muitos sistemas desenvolvidos ainda são
monolíticos e não são suficientemente flexíveis para atender as demandas atuais.
• Aprofundar pesquisas sobre o problema da sobrecarga de informações em
outros domínios de aplicação: é interessante estender a pesquisa considerando
outros aspectos que sobrecarregam um tomador de decisão e novas formas de
medir e/ou avaliar o problema. Além disso, diversos outros domínios carecem de
estudos sobre o tema.
• Realizar pesquisa sobre o uso de técnicas de recomendação para
representações visuais: tomando como base preferências predefinidas pelos
gestores no uso do Emergency Dashboard, acreditamos que há espaço para o uso
de técnicas de recomendação para auxiliar automaticamente os usuários a conhecer
e utilizar formas alternativas de visualização no cumprimento de suas tarefas;
• Realizar pesquisas sobre enriquecimento de fonte de dados entre diferentes
sistemas de informação: com objetivo de facilitar a obtenção de novas fontes de
dados para o Emergency Dashboard, padrões abertos como os da Web Semântica
são considerados.
155
REFERÊNCIAS BIBLIOGRÁFICAS
BARTOO, H.; SIAS, P. M. When enough is too much: Communication apprehension and
employee information experiences. Communication Quarterly, Pennsylvania, v. 52, n. 1, p.
15-26, 2004.
BHAROSA, N.; LEE, J.; JANSSEN, M. Challenges and obstacles in sharing and coordinating
information during multi-agency disaster response: Propositions from field exercises.
Information Systems Frontiers, Boston, v. 12, n. 1, p. 49-65, 2010.
BUILDER, C. H.; BANKES, S. C.; NORDIN, R. Command concepts: a theory derived from
practice of command and control. Santa Monica: RAND, 1999.
BULL, R. Model driven visualization: towards a model driven engineering approach for
information visualization. 2008. 227 f. Dissertação (Mestrado em Filosofia)-University of
Victoria, Victoria, 2008.
156
CARD, S. K.; MACKINLAY, J. The structure of the information visualization design space.
In: IEEE SYMPOSIUM ON INFORMATION VISUALIZATION, 1997, Phoenix.
Proceedings... New York: IEEE, 1997. p. 92-99.
CHI, E. H. A taxonomy of visualization techniques using the data state reference model. In:
IEEE SYMPOSIUM ON INFORMATION VISUALIZATION, 2000, Salt Lake City.
Proceedings... New York: IEEE, 2000. p. 69-75.
CHI, E. H.; RIEDL, J. T. An operator interaction framework for visualization systems. In:
IEEE SYMPOSIUM ON INFORMATION VISUALIZATION, 1998, Research Triangle Park.
Proceedings... New York: IEEE, 1998. p. 63-70.
CORDEIRO, K. de F. et al. Use of Linked Data and the design of information infrastructure
for emergency management systems. In: INTERNATIONAL CONFERENCE ON
COMPUTER SUPPORTED COOPERATIVE WORK IN DESIGN, 15., 2011, Lausanne.
Proceedings… New York: IEEE, 2011. p. 764-771.
DEY, A. K. Understanding and using context. Personal and Ubiquitous Computing, [S.l.],
v. 5, n. 1, p. 4-7, 2001.
ELLIS, C. A.; GIBBS, S. J.; REIN, G. Groupware: some issues and experiences.
Communications of the ACM, New York, v. 34, n. 1, p. 39-58, 1991.
FEW, S. Information dashboard design: the effective visual communication of data. Beijing;
Cambride: O’Reilly, 2006a.
______. Now you see it: simple visualization techniques for quantitative analysis. Oakland:
Analytics Press, 2009.
GOMES FILHO, A. F. et al. C2 Center dealing with the unexpected: resilience and brittleness
during FIFA Confederation Cup. In: INTERNATIONAL CONFERENCE ON
INFORMATION SYSTEMS FOR CRISIS RESPONSE AND MANAGEMENT, 11., 2014,
University Park. Proceedings... [S. l.: s. n.], 2014. p. 100-109.
FISCHER, G. Context-aware systems: the “right” information, at the “right” time, in the
“right” place, in the “right” way, to the “right” person. In: INTERNATIONAL WORKING
CONFERENCE ON ADVANCED VISUAL INTERFACES, 2012, Capri Island.
159
GANTZ, J.; REINSEL, D. Extracting value from chaos. 2011. Disponível em:
<http://www.emc.com/collateral/analyst-reports/idc-extracting-value-from-chaos-ar.pdf>.
Acesso em: 14 jul. 2014.
GRAMMEL, L.; TORY, M.; STOREY, M-A. How information visualization novices
construct visualizations. IEEE Transactions on Visualization and Computer Graphics,
New York, v. 16, n. 6, p. 943-952, 2010.
HOFFMAN, P. E. Table visualizations: a formal model and its applications. 1999. 225 f.
Tese (Doutorado)-University of Massachusetts Lowell, Lowell, 1999.
160
HSU, W. et al. Context-based electronic health record: toward patient specific healthcare.
IEEE Transactions on Information Technology in Biomedicine, New York, v. 16, n. 2, p.
228-234, 2012.
systems research: a case study. MIS Quarterly, Minneapolis, v. 12, n. 4, p. 571-586, 1988.
KEIM, D. et al. Visual analytics: definition, process, and challenges. In: KERREN, A. et al.
(Ed.). Information visualization: human-centered issues and perspectives. Berlin: Springer,
2008. p. 154-175. (Lecture Notes in Computer Science, 4950).
LI, Y. Design of mobile technologies for traveling with public transport: a battle against
information overload. 2015. Dissertação (Mestrado)-University of Oslo, Oslo, 2015.
LIU, S.; CUI, W.; WU, Y.; LIU, M. A survey on information visualization: recent advances
and challenges. The Visual Computer, 2014.
MCCUNE, J. C. Data, data everywhere. Management Review, New York, v. 87, n. 10, 1998.
MOURA, P. B. et al. Uma proposta de modelagem de dados para criação de fichas clínicas
dinâmicas. In: WORKSHOP DE INFORMÁTICA MÉDICA, 8., 2008, Belém. Anais... [S.l.:
s.n.], 2008.
MULDER, I. et al. An information overload study: using design methods for understanding.
In: AUSTRALIA CONFERENCE ON COMPUTER-HUMAN INTERACTION: DESIGN:
ACTIVITIES, ARTEFACTS AND ENVIRONMENTS, 18., 2006, Sydney. Proceedings...
New York: ACM. 2006. p. 245-252.
NORMAN, D. A. Things that make us smart: defending human attributes in the age of the
machine. Reading: Addison-Wesley, 1993.
PAUWELS, K. et al. Dashboards as a Service: why, what, how, and what research is needed?
Journal of Service Research, Thousand Oaks, v. 12, n. 2, p. 175-189, 2009.
PFITZNER, D.; HOBBS, V.; POWERS, D. A unified taxonomic framework for information
visualization. In: ASIA PACIF SYMPOSIUM ON INFORMATION VISUALISATION, 2.,
2003, Adelaide. Proceedings… [S.l.: s.n.], 2003. p. 57-66.
PIJPERS, G. Information overload: a system for better managing every data. Hoboken:
Wiley, 2010.
QUARANTELLI, E. L. Major criteria for judging disaster planning and managing their
applicability in developing countries. 1998. Disponível em:
<http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.626.1050&rep=rep1&type=pdf>.
Acesso em: 24 jul. 2014.
SHNEIDERMAN, B. The eyes have it: A task by data type taxonomy for information
visualizations. In: IEEE SYMPOSIUM ON VISUAL LANGUAGES, 1996, Boulder.
Proceedings... New York: IEEE, 1996. p. 336-343.
164
______. The visual display of quantitative information. Cheshire: Graphics press, 1983.
______. Visual explanations: images and quantities, evidence and narrative. Cheshire:
Graphics Press, 1997.
ZHUANG, L.; QIU, Y.; PENG, L. Is it the more the merrier? an exploratory study into the
growing problem of information overload. Journal of Technology Management in China, v.
6, n. 1, p. 69-83, 2011.