Cadernos CPqD Tecnologia V6 Nº 1

Page 1


ISSN 1809-1946

Cadernos CPqD Tecnologia Vol. 6, n. 1, janeiro/junho 2010

Apresentação Claudio A. Violato......................................................................................................................................3 Prefácio João Marcos Travassos Romano.........................................................................................5 Revisitando os desafios da recuperação de informação geográfica na Web Lin Tzy Li, Ricardo da Silva Torres................................................................................................7 Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos João Batista Rosolem, Claudio Floridia, Danilo César Dini, Claudio Antonio Hortencio, Flávio Borin, João Batista de Mello Ayres Neto, Rogério Lara Leite, Eduardo Ferreira da Costa, Edson Wilson Bezerra, Antônio Amauri Juriollo, Jacques Philippe Marcel Sanz, Norberto Bramatti............................21 Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital Nilsa Toyoko Azana, Claudia Povoas Schmidt, Sonia Mayumi Kutiishi, Daniel Moutinho Pataca, Ivan Luiz Ricarte......................................................................................................................................31 Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet Vinícius Garcia de Oliveira, Vinícius Geraldo Félix, Marcos Rogério Salvador, Nelson Luís Saldanha da Fonseca.............................................................................................................................................45 Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso Gustavo Leite de Mendonça Chaves......................................................................................................57 Arquiteturas baseadas em WDM para as próximas redes PON João Batista Rosolem, Rivael Strobel Penze, Edson Wilson Bezerra, Fernando Rocha Pereira, Bruno César de Camargo Angeli, Eduardo Mobilon, Júlio César Said, Antônio Donizete Coral .....................65 Propriedade intelectual do CPqD.............................................................................................................77

Cad. CPqD Tecnologia, Campinas, v. , n. 1, p. 1-86, jan./jun. 2010



Apresentação A revista Cadernos CPqD Tecnologia tem por objetivo ser um veículo de difusão do conhecimento tecnológico, publicando artigos relacionados aos projetos de P&D conduzidos pelo CPqD nos diferentes campos do conhecimento que constituem a dinâmica área das Tecnologias da Informação e Comunicação (TICs). Os resultados dos projetos do CPqD também têm sido divulgados e reconhecidos em eventos técnico-científicos. Entre as menções de destaque nos últimos meses, relacionamos: •

A 1a Conferência Sul-Americana de Design de Interação escolheu como melhor trabalho o artigo “Resultados da Avaliação de um Protótipo para Inclusão Digital usando Avaliação de Recuperabilidade”, apresentado pelo CPqD.

O Management World 2009, do TM Forum, deu destaque à apresentação do sistema CPqD Workforce. Essa apresentação foi aceita pela instituição tendo em vista a relevância internacional do sistema.

Cabe destacar também que o CPqD, através de uma política de incentivo, estímulo e valorização do espírito inovador de seus profissionais, tem procurado incentivar a geração de patentes. Desejamos ao leitor um bom proveito dos conhecimentos que aqui compartilhamos.

Claudio A. Violato Vice-Presidente de Tecnologia

Cad. CPqD Tecnologia, Campinas, v. 6, n.1, p. 3, jan./jun. 2010



Prefácio Apresentam-se, neste número da revista Cadernos CPqD Tecnologia, seis novos artigos, envolvendo trabalhos recentes nas mais diversas áreas de atuação em pesquisa e desenvolvimento do CPqD. O primeiro artigo, de Li e Torres, aborda o tema da recuperação de informação geográfica (Geographic Information Retrieval – GIR) e discute os desafios e as oportunidades de pesquisa nessa área. Propõe, ainda, uma arquitetura para buscas na Web baseada em relacionamento espacial entre entidades geográficas, e não apenas com a utilização de palavras-chave. O segundo artigo, de Rosolem e colaboradores, trata do uso de sensores ópticos como alternativa para a monitoração de hidrogeradores. São apresentados os resultados do desenvolvimento de três tipos de sistemas de sensoriamento óptico, com ênfase no investimento na confiabilidade dos sensores e na possibilidade de implantação de redes, tendo em vista a monitoração de grande quantidade de pontos e parâmetros. No terceiro artigo, Azana e colaboradores aplicam uma metodologia para determinar as questões envolvidas na identificação dos requisitos fundamentais à criação de uma ferramenta de autoria para TV digital. A prática apresentada permite o entendimento e o tratamento de problemas, auxiliando na tomada de decisão e indicando os requisitos de uma ferramenta adequada aos atores envolvidos. O quarto artigo, de Oliveira e colaboradores, propõe o uso de filtros de bloom para o encaminhamento de pacotes em redes Metro Ethernet. Os autores demonstram que sua proposta é passível de implementação em componentes disponíveis comercialmente e confirmam sua eficiência por meio de resultados de simulação. No quinto artigo, Chaves descreve uma metodologia para discutir o desenvolvimento de software livre ou de baixo custo, aplicando-a em um estudo de caso. Os resultados obtidos confirmam a adoção de tais ferramentas como uma alternativa viável e que proporciona maior garantia de sustentabilidade. No sexto artigo, Rosolem e colaboradores apresentam a visão de futuro das topologias e tecnologias de rede óptica passiva de múltiplos comprimentos de onda para redes de acesso, que possibilitarão o oferecimento de largura de banda ilimitada. O trabalho analisa, ainda, as topologias e os dispositivos necessários à viabilização dessas redes. Neste primeiro número de 2010 dos Cadernos CPqD Tecnologia, constatamos, mais uma vez, uma desejável diversidade de temas, todos de grande relevância tecnológica. O crescente interesse dos pesquisadores do CPqD em colaborar com a revista a torna cada vez mais respeitada em nossa comunidade, tanto por sua regularidade como pela crescente qualidade de seus textos. Juntamente com os demais colegas do Fórum de P&D do CPqD, felicito autores e leitores, e os convido a continuar contribuindo com os Cadernos e a compartilhar conosco seus resultados de P&D.

João Marcos Travassos Romano Presidente do Fórum de P&D do CPqD

Cad. CPqD Tecnologia, Campinas, v. 6, n.1, p. 5, jan./jun. 2010



Revisitando os desafios da recuperação de informação geográfica na Web Lin Tzy Li*, Ricardo da Silva Torres** Há uma grande quantidade de informação na Web sobre entidades geográficas e grande interesse em localizá-las em mapas. Entretanto, os atuais mecanismos de busca na Web ainda não permitem, em uma única ferramenta, buscas que envolvam relações espaciais, pois, em geral, a consulta é processada levando-se em conta apenas as palavras-chave usadas na consulta. Este artigo faz uma breve revisão da área de recuperação de informação geográfica (Geographic Information Retrieval – GIR) e uma releitura de desafios e oportunidades de pesquisa na área, a partir da proposta de uma arquitetura para buscas na Web, envolvendo relacionamento espacial entre entidades geográficas, bem como da implementação inicial dessa arquitetura. Palavras-chave: Recuperação de informação geográfica. Busca Web. Consulta geográfica. Relacionamento espacial. GIR. Introdução A informação geográfica pressupõe a existência de atributo relacionado à localização de um objeto no espaço, como, por exemplo, uma coordenada geográfica ou uma relação, direta ou indireta, a algum objeto que possa ser localizado geograficamente. Tal informação pode consistir desde um endereço completo até referências indiretas – como aeroporto de Cumbica (o que remete ao município de Guarulhos, próximo à cidade de São Paulo). O que se procura na área de recuperação de informação geográfica (Geographic Information Retrieval – GIR) é tratar dos novos desafios advindos da adição da variável geográfica na tradicional área de recuperação de informação. A área de GIR pode ser entendida como uma extensão da área de recuperação de informação (Information Retrieval – IR) incrementada com associações e dados sobre objetos geográficos. A informação geográfica está presente, direta ou indiretamente, no dia a dia das pessoas e, dessa forma, não é de se admirar que haja uma grande quantidade de informação na Web sobre entidades geográficas e grande interesse em localizá-la em mapas. Ferramentas como o Google Maps e o Google Earth vêm popularizando e atendendo, em parte, à demanda dos usuários da Web por informação geoespacial. Os serviços de busca convencionais são baseados em casamento de palavras-chave e, em geral, não levam em conta que essas palavras podem representar entidades geográficas, que se relacionam espacialmente com outras entidades geográficas. Mesmo que não tenham sido citados explicitamente na consulta (JONES et al., 2004), esses

relacionamentos representam, potencialmente, uma informação relevante para o usuário. Um exemplo de consulta que não pode ser realizada pela maioria dos sistemas de busca existentes na Web seria: “Quais são as páginas das prefeituras das cidades vizinhas a Campinas?”. A dificuldade em se processar consultas geográficas na Web reside em combinar consultas tradicionais, feitas em mecanismos de busca na Web, com operadores espaciais, usualmente implementados em bancos de dados espaciais. Este artigo apresenta desafios e oportunidades de pesquisa relacionados ao processamento de buscas na Web, envolvendo relacionamento espacial entre entidades geográficas. Primeiramente, é oferecida uma visão geral sobre os conceitos da área de recuperação de informação geográfica, seguida da caracterização de desafios da área, bem como de uma proposta de arquitetura para GIR. Por fim, é apresentado um mapeamento de novas oportunidades de pesquisa na área. 1

A área de recuperação de informação geográfica tem foco na indexação e na recuperação geoespacial da informação. Trata-se de uma área de pesquisa aplicada que combina consulta em sistema gerenciador de banco de dados (SGBD), interface humano-computador (IHC), sistema de informação geográfica (GIS), indexação, recuperação da informação (IR) e navegação (browsing) pela informação georreferenciada (LARSON, 1995), além da visualização espacial em um mapa.

*Autor a quem a correspondência deve ser dirigida: lintzyli@cpqd.com.br. **Instituto de Computação – Unicamp. Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010

Visão geral da área de recuperação de informação geográfica (GIR)


Revisitando os desafios da recuperação de informação geográfica na Web

1.1 Recuperação de informação (IR)

1.2.2

Recuperação de informação trata do desafio de se buscar informação sobre determinado assunto de interesse do usuário. Como o ser humano expressa suas necessidades em linguagem natural, a formulação de suas consultas está longe de ser precisa. Dessa forma, uma das preocupações da área de IR consiste em interpretar a consulta formulada pelo usuário, buscar a informação armazenada em repositórios, selecioná-la conforme a relevância para o assunto de interesse do usuário, classificá-la (rank) e mostrar o conjunto resultante de forma adequada. Como a própria consulta envolve um grau de imprecisão, o resultado retornado também contém um certo número de itens não relevantes. O objetivo principal para IR é maximizar os resultados relevantes e minimizar os irrelevantes. Em linhas gerais, a efetividade da recuperação de informação é diretamente influenciada pela atividade do usuário (user task) e pela representação lógica (logic view) das informações (documentos), adotada pelo sistema de IR (BAEZA-YATES; RIBEIRO-NETO, 1999). Segundo Baeza-Yates e Ribeiro-Neto (1999), o processo de recuperação de informação que envolve o usuário (user task) subdivide-se em duas partes: o processo de formulação da consulta e o processo de refinamento (browsing), que o usuário efetua sobre os resultados retornados pelo sistema, a fim de obter, efetivamente, os documentos desejados. É justamente nesses pontos que estão as preocupações das pesquisas na área de recuperação de informação centradas no usuário: o estudo do comportamento humano e de suas necessidades, visando melhorar a modelagem, a organização e a execução de consultas no sistema de busca. Já as pesquisas centradas no computador preocupam-se, principalmente, em construir índices, processar as consultas dos usuários com eficiência e desenvolver algoritmos de classificação/ordenação (ranking) que melhorem a qualidade da resposta do sistema de busca.

Este módulo trata dos formatos disponíveis para representar a informação e as propriedades do documento. É, também, responsável pelo préprocessamento da consulta recebida – análise léxica, eliminação de termos irrelevantes (stop words), identificação da raiz da palavra e sinônimos –, pela compressão de texto e pelo agrupamento (clustering) de documentos.

1.2 Arquitetura de um sistema de recuperação de informação (IR) A Figura 1 ilustra uma arquitetura típica de um sistema de recuperação de informação. Os principais módulos representados são: 1.2.1

Interface com usuário (E)

Este módulo é responsável pelo recebimento das consultas formuladas pelo usuário e pela visualização dos resultados retornados pelo sistema de IR.

8

1.2.3

Operações textuais (C)

Operações de consultas (F)

Este módulo é encarregado de traduzir a consulta do usuário em formato computacionalmente processável. Além disso, cuida das interações subsequentes, visando ao refinamento dos resultados. 1.2.4

Busca e indexação (G e D)

Estes módulos se preocupam em recuperar a informação de forma mais eficiente, usando métodos de indexação, técnicas de casamento de padrão, consultas estruturadas e/ou consultas sobre índices comprimidos. 1.2.5

Ranking (H)

Este módulo ordena os documentos de acordo com a relevância para o assunto de interesse do usuário. 1.2.6

Módulo Gerenciador de BD (B)

Este módulo define os documentos disponíveis para consulta, o modelo de dados e as operações válidas. O módulo Gerenciador de Banco de Dados constrói os índices dos textos para melhorar o desempenho da recuperação de informação. O espaço utilizado com índices e o tempo necessário para sua criação são compensados pela diminuição do tempo de espera de resposta de um sistema de recuperação de informação. O início do processamento de uma consulta no sistema de IR descrito acima é disparado pelo usuário, a partir da especificação de uma consulta. Em seguida, o módulo de operações textuais (C) do sistema processa e transforma a expressão da necessidade do usuário em uma estrutura, cuja visão lógica seja da mesma natureza dos textos armazenados no sistema. A visão lógica da expressão da necessidade do usuário é submetida às operações de consulta (F), que a transformam em uma consulta computacionalmente apropriada. No processamento da consulta, os índices previamente construídos e armazenados no sistema são usados. Os documentos recuperados são, então, classificados, de acordo com a probabilidade de sua relevância ante a

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010


Revisitando os desafios da recuperação de informação geográfica na Web

Fonte: Baeza-Yates e Ribeiro-Neto (1999).

Figura 1 Processo de recuperação de informação (IR)

necessidade expressa pelo usuário. Em seguida, eles são apresentados para avaliação do usuário, permitindo que este determine o subconjunto de documentos que realmente seja de interesse. Neste ponto, a indicação do subconjunto de interesse do usuário é um tipo de feedback que permite ao sistema refinar os resultados a serem apresentados em uma próxima iteração. 1.3 Propriedades da informação georreferenciada Uma informação pode ser considerada georreferenciada quando possui uma coordenada associada ou quando a informação faz referência a alguma entidade geográfica, como, por exemplo, nomes de lugares ou frases que remetem a lugares (VESTAVIK, 2003). A associação de determinado item de uma coleção a uma ou mais regiões na superfície terrestre é denominada footprint por Frew et al. (2000). Jones (2006) denomina geocodificação a ação de associar um footprint a uma referência geográfica. Já a ação de reconhecer uma referência geográfica é denominada geo-parsing (análise sintática). Em GIR, é necessário que a coleção de dados que referencia lugares, direta ou indiretamente, seja traduzida em seu footprint. Desse modo, ela pode ser indexada espacialmente, aplicando-se os processos de geo-parsing e geocodificação. No entanto, alguns desafios são observados nesse processo (VESTAVIK, 2003): a) referências a lugares homônimos. Por exemplo, Nova York designa uma cidade no Maranhão ou um estado e uma cidade nos EUA, assim como Luís Eduardo Magalhães pode ser nome de aeroporto, escola, praça ou cidade na Bahia; b) lugares citados em textos mudam conforme contexto histórico, cultural e costumes populares em que esses textos são produzidos. Por exemplo, “200 km ao

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010

norte da capital do Brasil” tem o problema de o Brasil ter tido outras capitais ao longo da história; c) nomes de lugares mudam com o decorrer do tempo. Por exemplo, São Petersburgo, capital da Rússia, já foi denominada Petrogrado (1914-1924) e Leningrado (1924-1991); d) a extensão geográfica de um local muda com o tempo. Por exemplo, a Alemanha teve diferentes fronteiras no decorrer de sua história; e) fronteiras podem não ser claramente definidas. A indefinição de fronteiras pode acontecer em uma zona de conflito de domínio. Por exemplo, “a fronteira entre o Líbano e a Síria permanece indefinida desde que os dois países se tornaram independentes da França em 1943”; f) diferentes nomenclaturas podem se referir a uma mesma entidade geográfica, seja por erro, idioma ou existência legal de mais de uma forma válida de escrita. Por exemplo, ambos Pequim e Beijing se referem à capital da China; ou ainda, Germany e Deutschland são duas nomenclaturas comumente usadas para se referir à Alemanha; g) ambiguidades em função de referências feitas a um lugar, através de pseudônimos, ou dentro de contextos específicos. Por exemplo, São José do Rio Preto, no Estado de São Paulo, muita vezes é referenciada como Rio Preto por seus habitantes. No entanto, existe uma cidade chamada Rio Preto no Estado de Minas Gerais; h) referências indiretas. Por exemplo, Rodovia Fernão Dias remete aos Estados de São Paulo e Minas Gerais, assim como

9


Revisitando os desafios da recuperação de informação geográfica na Web

Cristo Redentor remete à cidade do Rio de Janeiro. 1.4 Ferramentas de georreferenciamento Gazetteers, Thesauri e ontologias (BORGES, 2006; BORGES et al., 2007) constituem técnicas comumente utilizadas para contornar as dificuldades enumeradas na seção anterior para tarefas de geo-parsing e geocodificação. 1.4.1 Ontologia Ontologia é um modelo de objetos, taxonomias e esquemas (BORGES, 2006) e provê um conjunto de conceitos e termos para descrever um domínio e, portanto, uma estrutura sobre a qual uma base de conhecimento pode ser construída. Ontologias são usadas para representar o conhecimento, de forma a explicitar e especificar as semânticas e as relações do domínio de interesse. Uma das qualidades das ontologias é a flexibilidade possibilitada por seu reuso e compartilhamento, além da possibilidade de acomodar uma variedade de termos descritivos (QIN; PALING, 2001). Ontologias podem ser usadas para reconhecimento e extração de evidências geoespaciais e, precisamente nesse contexto, são denominadas ontologias geográficas (BORGES, 2006) ou geo-ontologias (SANTOS; CHAVES, 2006). 1.4.2

Gazetteers e Thesauri

Gazetteer é um dicionário de nomes geográficos cujos componentes principais são: o nome e suas variantes, a localização e a categoria do lugar. Ele ajuda a responder questões do tipo “onde fica esse lugar?” e “o que há nesse lugar?” (BORGES, 2006; HILL, 2000). Possui, também, informações descritivas dos lugares, podendo ser usado para associar coordenadas geográficas ao nome de um lugar (BORGES, 2006). Embora os Gazetteers contenham mais informação sobre determinado local geográfico identificado por um texto, eles não representam qualquer relação semântica (por exemplo, sinônimo e hiponímia) ou espacial (por exemplo, vizinhança) entre lugares listados, ao contrário do

thesaurus, que enfatiza a relação espacial entre os lugares em detrimento da localização exata em termos de coordenadas. Um thesaurus é uma lista de termos, estruturada e definida, que padroniza as palavras usadas com índices. Ou seja, constitui um vocabulário formalmente organizado, de tal forma que as relações entre os conceitos são explicitadas (BRAUNER; CASANOVA; MILIDIÚ, 2006). Por exemplo, o Getty Thesaurus of Geographic Names (TRUST, 2009) organiza o lugar por sua relação espacial e por áreas administrativas; informa as várias versões de nome que um lugar pode ter; informa suas coordenadas geográficas; e permite trabalhar com nomes similares com o uso de ontologias (VESTAVIK, 2003). 1.5 Relacionamentos espaciais Borges (2006) agrupa os relacionamentos espaciais, isto é, as posições relativas entre objetos, em três categorias: 1.5.1

Topológicos

Estes relacionamentos indicam as propriedades de conectividade, como a adjacência e a relação entre contém e está contido, e não incluem propriedades de medida e direção. Egenhofer (1997) classifica os relacionamentos topológicos entre dois objetos bidimensionais em: disjunto, encontra, sobrepõe, contém, cobre, dentro, coberto por e igual a. Em contrapartida, Clementini, Felice e Oosterom (1993) os resumem em: disjunto, dentro, toca, cruza e se sobrepõe (Figura 2). 1.5.2

Métricos

Os relacionamentos métricos expressam propriedades espaciais mensuráveis, como área, distância, comprimento e perímetro, de forma quantitativa. 1.5.3

Direcionais

Estes relacionamentos expressam orientação (pontos cardeais: Norte, Sul, Leste e Oeste) e a ordem (acima, abaixo e em frente).

Fonte: Câmara et al. (1996).

Figura 2 Exemplos de relacionamentos topológicos

10

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010


Revisitando os desafios da recuperação de informação geográfica na Web

1.6 Consultas espaciais Trata-se de consultas sobre as relações espaciais entre dois objetos localizados em um espaço bem definido, com ou sem coordenada geográfica. Segundo Larson (1995), as relações espaciais podem ser geométricas ou topológicas, sendo que o primeiro caso inclui relação de distância e direção. Por exemplo, as coordenadas, em latitude e longitude, de Nova York (40º40’N, 73º58’O) e de Chicago (41º52’N, 87º37’O) nos indicam a direção e a distância entre as cidades, que podem ser calculadas a partir dessas coordenadas. Ainda segundo Larson (1995), as consultas espaciais podem ser classificadas em: a) por ponto em um polígono: tenta responder a consultas do tipo “O que há no ponto (x, y) do sistema de coordenada corrente?”; b) por regiões: quando, dada uma região delimitada por um polígono ou linha, se tenta encontrar algo que esteja contido nela, adjacente a ela, ou que se sobreponha à sua área. Por exemplo, “Quais áreas têm intersecção com uma dada área escolhida?”; c) por distância e zona de buffer: consiste em encontrar algo que está a uma distância fixa de um objeto, seja uma linha, um ponto ou um polígono. Um exemplo de consulta deste tipo seria: “Quais são as cidades que estão a 50 km dos limites da cidade de Campinas?”; d) por caminhos: é uma consulta que envolve uma estrutura de rede formada por segmentos de linha conectados, como é o caso de rede elétrica, canos de água ou gás, vias de transporte, etc. Exemplos de consultas tradicionais são as de caminho mais curto entre dois pontos da rede. No entanto, consultas que envolvam

diferentes variáveis de distância e direção podem ser mais complicadas (por exemplo, “Qual o caminho mais rápido de Campinas a Santo André?”); e) multimídia: são as consultas que congregam informações de vários tipos de dados (textual, imagem, geográfico). Como exemplo, tem-se a consulta do tipo “Quais são os rios que possuem peixes similares àquele encontrado em uma dada imagem de entrada e que atravessam estados que possuem cidades cujos nomes contenham 'Paulo'?”. 1.7 Arquitetura de um sistema GIR A Figura 3 ilustra a arquitetura proposta de um sistema de recuperação geográfica. Como pode ser observado, alguns módulos foram adicionados (área delimitada com pontilhado) e outros alterados (A e D) em relação à Figura 1: a) geo-coding (K): o geocodificador de documento extrai a referência geográfica (footprint) de determinado documento com base em seu conteúdo; b) geo-parsing (J): módulo desambiguador que, a partir de ontologias e dados semânticos, uniformiza os termos geográficos ambíguos e similares semanticamente; c) banco de dados espacial: base de dados de lugares georreferenciados que é usada para ajudar a atribuir coordenadas geográficas a um conteúdo com base em sua referência geográfica. Exemplos de bases usadas são os Gazetteers e, atualmente, até mesmo referências encontradas em páginas Web na Internet (BORGES et al., 2007) e outros documentos relacionados que tenham sido previamente geocodificados;

Figura 3 Proposta de arquitetura de um sistema de recuperação de informação geográfica

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010

11


Revisitando os desafios da recuperação de informação geográfica na Web

d) busca e indexação espaciais (G e D): encarregam-se de prover meios para que as consultas espaciais sejam mais eficientes, ou seja, proveem métodos de acesso (Spatial Access Method – SAM) eficiente usando as coordenadas geográficas associadas aos documentos como índices. O processamento de consultas espaciais usa técnicas de geometria computacional para descobrir as relações entre os objetos espaciais, representados por geometrias como ponto, linha ou polígono. Entre os esquemas usados para os índices espaciais, são citados: Linear Quadtree, Space-filling curves, árvore Z-Ordering e árvore R, R* e R+ (RIGAUX et al., 2002). O módulo de busca trata, também, da ordem em que uma busca deve ser realizada, nas situações em que as consultas são simultaneamente alfanuméricas e espaciais. Uma das preocupações, por exemplo, é como a ordem de execução dos tipos de consulta pode afetar o desempenho do sistema de busca (CHEN; SUEL; MARKOWETZ, 2006); e) navegação espacial (spatial browsing): é o módulo de interface com o usuário (E). Pode prover a visualização, em mapa, da localização do documento ou do local sobre o qual o documento versa, bem como pode oferecer alguma forma de o usuário refinar sua consulta via mapa; f) operações de consultas e ranking (F e H): estes módulos são focados nas formas pelas quais é possível tratar a introdução da variável espacial nas consultas do usuário, como, por exemplo, traduzir as palavras com significado geográfico (objetos ou operadores) para uma linguagem de sistema, e alterar os algoritmos de ranking dos resultados, de forma a retornar somente aqueles que são relevantes ao usuário. 2

Caracterização de novos desafios na área de recuperação de informação geográfica

Nesta seção, será usado um estudo de caso para caracterizar problemas relacionados ao processamento de consultas Web que consideram relacionamento espacial entre objetos geográficos. Primeiramente, será apresentada uma visão geral das possíveis aplicações que se beneficiariam desse tipo de consulta. 2.1 Aplicações São exemplos de possíveis aplicações aquelas

12

relacionadas à busca de documentos sobre lugares de interesse (aplicações, por exemplo, na área de turismo e projetos de engenharia). Considere os cenários a seguir, sendo que as palavras em negrito estão associadas a relacionamentos espaciais entre entidades geográficas: a) você mora em Curitiba e gostaria de prestar concursos públicos para trabalhar na prefeitura de cidades vizinhas. Assim, gostaria de acessar as páginas das prefeituras e procurar por editais em aberto; b) você fará uma visita turística a Curitiba e região. Você tem restrições financeiras e sabe que os hotéis da capital são mais caros. Por isso, gostaria de procurar hotéis nas redondezas, mas ainda viabilizando seu roteiro de visita a Curitiba; c) você tem interesse em viajar pelo Estado de São Paulo e quer aproveitar a viagem para fazer uma pesquisa sobre vilas e cidades que ficam perto do rio Tietê. Assim, seria interessante encontrar as páginas das concessionárias das estradas que cruzam o rio para poder contatá-las, a fim de propor patrocínio ou algum trabalho conjunto de interesse; d) você está indo para uma conferência em Barcelona, que será realizada em um local próximo a uma estação de metrô, e quer aproveitar para conhecer a cidade. Nesse caso, seria interessante se hospedar em hotéis próximos a qualquer estação de metrô, a fim de facilitar sua locomoção pela cidade; e) você participa de um projeto de inclusão digital que, experimentalmente, ligará, com um cabo de comunicação de última geração, as cidades de Campinas e Peruíbe, sendo que esta última fica no litoral, ao Sul de Campinas. Você imagina que outras cidades poderiam se beneficiar com essa mesma ligação. Por isso, tem a ideia de entrar em contato com as prefeituras de outras cidades ao Sul de Campinas, cujas regiões serão cruzadas, potencialmente, pelo cabo de transmissão. 2.2 Estudo de caso Em uma enquete informal, envolvendo 15 pessoas com diversos níveis de conhecimento de uso do computador, perguntouse como fariam para encontrar páginas Web, considerando o seguinte cenário: “Quais são as páginas das prefeituras das cidades vizinhas (até 50 km) da cidade X?”. Várias soluções foram apresentadas:

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010


Revisitando os desafios da recuperação de informação geográfica na Web

Solução 1: submeteria ao Google Search o nome da (micro) região da cidade, como, por exemplo, “triângulo mineiro” ou “circuito das águas”, mais o objeto de interesse, resultando em prefeitura “circuito das águas” . Solução 2: submeteria ao Google Search as palavras-chave prefeitura região X. Solução 3: submeteria ao Google Search as palavras-chave cidades vizinhas X e depois, com a lista de cidades em mãos, procuraria pela página da prefeitura de cada cidade. Solução 4: usaria o Google Maps buscando pela cidade X, inspecionaria visualmente o mapa para listar as cidades vizinhas e faria busca no Google pelos nomes das cidades com as palavras-chave <nome da cidade> prefeitura. Solução 5: submeteria ao Google Search as palavras-chave prefeitura próxima <cidade X> 50 km. Solução 6: procuraria uma lista de cidades do Estado, via busca na Web, ou iria ao site do governo do Estado para obtê-la. Com sorte, essa página já poderia conter os links para as páginas de prefeituras. Com a lista em mãos, procuraria por uma tabela de distâncias na Web, para finalmente fazer a consulta no Google Search com <nome da cidade> prefeitura. Solução 7: primeiro, submeteria ao Google Search as palavras-chave cidades distâncias X, para recuperar as cidades de interesse. Em seguida, para cada cidade da lista, buscaria por prefeitura <cidade>. Solução 8: considerando que sejam cidades de São Paulo, pegaria a lista das cidades da região em que X se insere, depois iria ao endereço www.<cidade>.sp.gov.br, substituindo <cidade> pelo nome da cidade de interesse, pois este é o padrão de endereço das páginas de prefeituras brasileiras. Solução 9: submeteria ao Google Search as palavras-chave sites prefeituras <cidade> SP região. Solução 10: visitaria a página da cidade no Wikipedia, que costuma ter informações de cidades vizinhas. Muitas dessas soluções apresentam mais de um passo para se responder à consulta desejada. Em geral, isso acontece porque os usuários que apresentaram essas soluções já sabiam que as ferramentas atuais de busca na Web não respondem tão bem a consultas desse tipo. Apenas o nome da cidade e a relação espacial desejada não são suficientes para que a informação relevante seja recuperada, pois a máquina de busca apenas tentará casar as palavras-chave usadas. Para usuários que estão acostumados a fazer esse tipo de consulta, é comum tentar reescrevê-la de modo que a ferramenta de busca na Web retorne resultados relevantes. Tomando-se como exemplo o cenário

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010

apresentado no início desta seção, pode-se dizer que, de modo geral, a consulta foi fatorada conforme análise descrita a seguir. Primeiramente, é usada alguma informação que ajude a transformar a consulta geográfica em uma consulta por palavras-chave: (a) valendo-se de conhecimentos prévios, associando a cidade a uma região que a englobe (estado, região), que já é de seu conhecimento (Solução 1), ou indo direto à página da prefeitura, pois já se conhece a estrutura URL das páginas da prefeitura (Solução 8); (b) visitando páginas previamente conhecidas, que poderiam possuir a lista das cidades próximas ou a tabela de distância entre cidades (Solução 10); (c) submetendo outras palavras ao serviço de busca, para que este retorne a lista das cidades vizinhas ou próximas (Soluções 3, 6 e 7); (d) usando o serviço de localização de mapas da cidade-referência da consulta para, visualmente e manualmente, discernir e listar as cidades que possuem a relação geográfica desejada (Solução 4). No passo seguinte, o usuário monta a consulta, ou as consultas, com as palavras-chave que terão mais chance de retornar resultados relevantes, levando-se em conta a lista de cidades-alvo que foram definidas pela relação espacial da consulta inicial. Com esse cenário em mente, propõe-se uma arquitetura para enriquecer a busca na Web tradicional, adicionando-se consultas geográficas com o auxílio de banco de dados espacial. A proposta é que o usuário expresse diretamente sua consulta geográfica e que o sistema expanda essa consulta, envie-a a máquinas de busca existentes, combine os resultados e os retorne ao usuário de forma ordenada, de acordo com sua relevância. Em seguida, alguns desafios e oportunidades de pesquisa relacionados à implementação dessa arquitetura são considerados. 2.3 Arquitetura proposta A arquitetura proposta neste trabalho é um modelo de três camadas, conforme ilustrado na Figura 4. Na camada de apresentação, tem-se a interface humano-computador para definição da consulta pelo usuário, o retorno dos resultados e o refinamento da consulta. Prevê-se a possibilidade de usar APIs externas para ajudar na exibição de informação extraída da Web, como, por exemplo, o Google Maps API (GOOGLE, 2009d), que são providas externamente ao sistema, para ajudar o desenvolvedor a adicionar, em suas páginas, funcionalidades providas por outros sites. Na camada de processamento da entrada, encontra-se o módulo responsável pelo geo-parsing de termos usados na consulta, o geocodificador da consulta, o módulo de expansão de consulta, o gerenciador de

13


Revisitando os desafios da recuperação de informação geográfica na Web

máquinas de busca, o refinador (feedback) de consultas e o módulo de ranking por relevância. A máquina de busca pode repassar a busca para várias outras máquinas existentes na Web, de forma que o resultado do sistema será a combinação dos resultados retornados pelas diversas máquinas de busca. Por fim, a camada de dados é composta pelos repositórios locais e por aqueles que se encontram distribuídos pela Web. Esses repositórios consistem em dados, ontologias e thesauri para eliminar a ambiguidade de termos ou expandir a consulta do usuário. Os repositórios remotos podem conter, também, outras ontologias e thesauri, e incluem ainda os documentos disponíveis na Web. Um típico cenário de uso consiste nas seguintes etapas: o usuário especifica sua consulta; o sistema reconhece e elimina a ambiguidade dos termos que se referem a objetos geográficos da consulta, como, por exemplo, os nomes de lugares homônimos ou que se referem a mais de um objeto; o sistema pode pedir para o usuário filtrar e indicar o sentido ou contexto correto dos termos a serem usados na consulta, passando o controle para a interface. O usuário indica, na interface, o sentido e o contexto; o sistema geocodifica os elementos de referência da consulta geográfica e prepara a consulta para ser enviada ao gerenciador de máquinas de busca. O resultado da busca passa por um ranking por relevância, antes de ser apresentado ao usuário. Com a visualização do resultado, o usuário pode desejar filtrar ainda mais o resultado, realimentando o sistema com novos critérios para uma nova busca. 3

Protótipo

Parte da arquitetura proposta na Figura 4 foi implementada em um protótipo. Os módulos

implementados foram: entrada da consulta, apresentação do resultado, geocodificação do objeto de referência da consulta (B), expansão da consulta (C), busca (E), banco de dados espacial (BDE) e uso de API de apresentação. Buscas envolvendo relacionamentos espaciais foram implementadas por meio de consultas enviadas a um BDE. Esse banco de dados foi carregado com dados vetoriais obtidos do site do IBGE (2009), como, por exemplo, cidades, estados, rios, rodovias federais e ferrovias do Brasil. A consulta é estruturada em uma interface Web (Figura 5) com campos fixos. Na primeira caixa de seleção, o usuário indica o tipo de informação de interesse (por exemplo, páginas de prefeituras) e o tipo de objeto geográfico ao qual essa informação se relaciona (por exemplo, cidade), o qual será denominado objeto-alvo (na interface do objeto consultado). Em seguida, escolhe-se a relação espacial (por exemplo, vizinho) que esses objetos-alvo devem ter com um objeto de referência (objeto-referência). O usuário especifica também o tipo desse objetoreferência espacial e o caracteriza (por exemplo, cidade X). No processamento da consulta, se o objeto-referência estiver bem caracterizado, ele poderá ser usado em consulta geográfica equivalente, fornecida pelo BDE, para busca da lista de objetos-alvo. Com a lista de objetos em mãos, expande-se a consulta espacial de entrada e envia-se a nova consulta para uma máquina de busca na Web (no caso, Google). O resultado da busca é exibido em uma página da Web, na qual se agregam os resultados retornados na busca e a localização espacial dos objetos-alvo no mapa (Figura 6). Dessa forma, o usuário consegue recuperar a informação de interesse em apenas um passo.

Figura 4 Arquitetura para recuperação de informação geográfica na Web

14

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010


Revisitando os desafios da recuperação de informação geográfica na Web

Esse protótipo foi implementado com o uso da linguagem de programação JavaScript e Python (PYTHON SOFTWARE FOUNDATION, 2009), sob o framework para aplicações Web Django (DJANGO SOFTWARE FOUNDATION, 2009). A máquina de busca na Web foi provida pelo Google AJAX Search API (GOOGLE, 2009a) e a

exibição da localização no mapa dos objetos-alvo foi fornecida pelo Google Maps API (GOOGLE, 2009d). Como banco de dados espacial, foi adotado o PostgreSQL (2009) com extensão espacial PostGIS (REFRACTIONS RESEARCH, 2009) e nele foram carregados dados vetoriais obtidos do site do IBGE (2009).

Figura 5 Interface para especificação de consultas envolvendo relacionamento espacial entre objetos geográficos

Figura 6 Resultado da consulta “Quais são as páginas das prefeituras das cidades próximas (até 50 km) da cidade de Campinas?”

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010

15


Revisitando os desafios da recuperação de informação geográfica na Web

4

Novos desafios e oportunidades de pesquisa em GIR

A especificação e a implementação da arquitetura proposta na seção anterior requerem do pesquisador a habilidade de lidar com vários desafios de pesquisa. Nesta seção, alguns desses desafios são discutidos, levando-se em consideração as três principais camadas da arquitetura: apresentação, processamento e dados. 4.1 Camada de apresentação A interação humano-computador mais primitiva ainda exige que o usuário formule sua consulta de forma estruturada, próxima à linguagem de consulta de banco de dados (por exemplo, SQL). Como a maioria dos usuários não conhece suficientemente essa linguagem estruturada, eles não conseguem expressar completamente suas necessidades e, consequentemente, a informação recuperada não satisfaz às suas expectativas de fato. Uma vez que o usuário precisa traduzir, na consulta, sua noção espacial em palavras, introduz-se mais complexidade e “indireção” ao problema. Por outro lado, identifica-se uma questão: a consulta precisa mesmo ser expressa apenas por meio de palavras? A dificuldade em oferecer uma interface em que o usuário possa expressar sua necessidade em uma linguagem natural, por exemplo, está relacionada a problemas que os pesquisadores da área de processamento de linguagem natural vêm tentando solucionar há décadas: ambiguidades, imprecisão e dependência de contexto na linguagem humana. Esse desafio se torna ainda maior ao se adicionar variáveis espaciais, pois o ser humano refere-se a lugares de forma imprecisa, sem mencionar a relação de temporalidade, conforme discutido na Seção 1.3. Nas buscas locais do Google Local Search (GOOGLE, 2009c), um conjunto de páginas geocodificadas são recuperadas em consultas no Google Maps e, portanto, passíveis de ser localizadas em mapa. No entanto, se forem usadas as mesmas palavras-chave em uma busca local e em uma busca na Web, é possível que esta última retorne mais resultados, uma vez que ainda há poucas páginas geocodificadas. Além disso, ao selecionar um ponto no mapa, o usuário pode usar o próprio Google Maps para fazer consultas do tipo “perto de”, as quais são repassadas para o Google Local Search. Nesse caso, uma possível estratégia seria usar uma interface desse tipo, agregando consultas que envolvam outras relações espaciais. Há ainda vários desafios a serem tratados na camada de apresentação em relação à forma de apresentação dos resultados e de expressão da necessidade do usuário, de modo que ele/ela

16

possa interagir com o sistema e indicar quais resultados são realmente relevantes, fazendo com que o sistema aprenda a refinar os resultados que serão apresentados em uma próxima iteração. 4.2 Camada de processamento Já na camada de processamento, há o desafio de eliminar a ambiguidade de nomes de lugares, como, por exemplo, quando se utiliza um nome que é comum a vários lugares e objetos ou quando se trata de um nome alternativo. Nesse caso, o sistema apresenta alternativas para o usuário (nomes similares) e, de acordo com o feedback do usuário, uma nova consulta é enviada ao sistema de busca. Por outro lado, com relação à proposta de submeter a consulta a várias máquinas de busca existentes, entre os desafios estão a combinação de resultados provenientes de várias fontes, a realização de um ranking de relevância dos resultados e o tratamento do feedback (HE, 2006; XU; XU; TRESP, 2003) do usuário com relação à relevância dos resultados apresentados, bem como a interação do sistema proposto com diversas máquinas de busca. Supondo que se ofereça uma interface para o usuário expressar sua necessidade através da linguagem semiestruturada ou natural, o desafio será encontrar formas de identificar e manipular referências a lugares nas consultas na Web (CARDOSO; SILVA, 2007; SANDERSON; HAN, 2007) e lidar com imprecisões dessas referências (FU; JONES; ABDELMOTY, 2005) (PASLEY;CLOUGH; SANDERSON, 2007). Como forma de tentar considerar essas questões, há trabalhos que buscam caracterizar as necessidades do usuário quanto à informação geográfica (HENRICH; LUEDECKE, 2007). Se a base de conhecimento geográfico estiver devidamente montada e geocodificada, há ainda o desafio de se processar a consulta, de forma eficiente, em máquinas de buscas geográficas na Web (CHEN; SUEL; MARKOWETZ, 2006), considerando-se a quantidade de dados que a Web representa. Outro desafio é produzir algoritmos eficazes para determinar a relevância do documento ou objeto, frente às necessidades expressas pelo usuário. Um exemplo disso é o uso de técnicas de aprendizado (FAN; PATHAK; WALLACE, 2006; XU et al., 2008). 4.3 Camada de dados Considerando-se que a própria Web pode ser vista como um grande repositório de dados, então a criação de uma base de conhecimento geográfico de forma automática, com base em informação disponível na Web, já constitui um desafio importante. Nesse caso, deve-se

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010


Revisitando os desafios da recuperação de informação geográfica na Web

considerar a questão da inconsistência da informação (POPESCU; GREFENSTETTE; MOËLLIC, 2008) e o desafio de identificar e de geocodificar dados textuais não estruturados encontrados nas páginas Web (ADRIANI; PARAMITA, 2007; BLESSING; KUNTZ; UTZE, 2007; BORGES et al., 2007). Conclusão Este artigo apresentou uma breve revisão da área de recuperação de informação geográfica, buscando caracterizar alguns dos principais desafios na área. A percepção resultante é que os mecanismos de busca na Web ainda não permitem realizar, em uma única ferramenta, buscas que envolvam relacionamentos espaciais entre entidades geográficas, pois, em geral, a consulta é processada levando-se em conta apenas as palavras-chave usadas na consulta. Foi proposta uma arquitetura para a realização de consultas geográficas na Web, com base em mecanismos de busca existentes e banco de dados espacial. Tal proposta incluiu a implementação de um protótipo inicial, bem como a identificação de novos desafios e oportunidades de pesquisa na área de recuperação de informação geográfica. Agradecimentos Ricardo da Silva Torres conta com apoio da FAPESP, do CNPq e da CAPES. Lin Tzy Li conta com apoio do CPqD. Agradecimento especial a Márcia Fiorilli Gusson Roscito e aos revisores anônimos pela revisão final do texto. Referências ADRIANI, M.; PARAMITA, M. L. Identifying Location in Indonesian Documents for Geographic Information Retrieval. In: ACM WORKSHOP ON GEOGRAPHICAL INFORMATION RETRIEVAL, 4., 2007, Lisbon, Portugal. Proceedings... Lisbon, Portugal: ACM, 2007. p. 19-24, ISBN 978-1-59593-828-2. BAEZA-YATES, R. A.; RIBEIRO-NETO, B. Modern Information Retrieval. New York, NY, USA: Addison-Wesley Longman Publishing Co., Inc., 1999. 513 p. ISBN: 020139829X. BLESSING, A.; KUNTZ, R.; UTZE, H. S. Towards a Context Model Driven German Geo-Tagging System. In: ACM WORKSHOP ON GEOGRAPHICAL INFORMATION RETRIEVAL, 4., 2007, Lisbon, Portugal. Proceedings... Lisbon, Portugal: ACM, 2007. p. 25-30, ISBN 978-1-59593-828-2. BORGES, K. A. V. Uso de uma ontologia de

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010

lugar urbano para reconhecimento e extração de evidências geoespaciais na Web. 2006. 181 f. Tese de doutorado – Universidade Federal de Minas Gerais. BORGES, K. A. V. et al. Discovering Geographic Locations in Web Pages using Urban Addresses. In: ACM WORKSHOP ON GEOGRAPHICAL INFORMATION RETRIEVAL, 4., 2007, Lisbon, Portugal. Proceedings... Lisbon, Portugal: ACM, 2007. p. 31-36, ISBN 978-1-59593-828-2. BRAUNER, D. F.; CASANOVA, M. A.; MILIDIÚ, R. L. Towards Gazetteer Integration through an Instance-based Thesauri Mapping Approach. In: BRAZILIAN SYMPOSIUM ON GEOINFORMATICS, 8., 2006, Campos do Jordão, Brazil. Proceedings... São José dos Campos, Brazil: INPE, 2006. ISBN 85-17-00027-7. S6 – Distributed GIS / GIS and the Internet. CÂMARA, G. et al. Anatomia de Sistemas de Informação Geográfica. Campinas: Instituto de Computação – Unicamp, 1996. 193 p. CARDOSO, N.; SILVA, M. J. Query expansion through geographical feature types. In: ACM WORKSHOP ON GEOGRAPHICAL INFORMATION RETRIEVAL, 4., 2007, Lisbon, Portugal. Proceedings... Lisbon, Portugal: ACM, 2007. p. 55-60, ISBN 978-1-59593-828-2. CHEN, Y.; SUEL, T.; MARKOWETZ, A. Efficient Query Processing in Geographic Web Search Engines. In: ACM SIGMOD INTERNATIONAL CONFERENCE ON MANAGEMENT OF DATA, 2006, Chicago, USA. Proceedings... Chicago, USA: ACM, 2006. p. 277-288, ISBN 1-59593-434-0. CLEMENTINI, E.; FELICE, P. D.; OOSTEROM, P. van. A Small Set of Formal Topological Relationships Suitable for End-User Interaction. In: SYMPOSIUM ON ADVANCES IN SPATIAL DATABASES, 3rd, 1993, Singapore. Proceedings... Germany: Springer-Verlag, 1993. p. 277-295, ISBN 3-540-56869-7. DJANGO SOFTWARE FOUNDATION. Django: The Web framework for perfectionists with deadlines. Disponível em: <http://www.djangoproject.com/>. Acesso em: 2 mar. 2009. EGENHOFER, M. J. Query Processing in SpatialQuery-by-Sketch. Journal of Visual Languages & Computing, Elsevier, v. 8, n. 4, p. 403-424, Aug. 1997. FAN, W.; PATHAK, P.; WALLACE, L. Nonlinear

17


Revisitando os desafios da recuperação de informação geográfica na Web

Ranking Function Representations in Genetic Programming-based Ranking Discovery for Personalized Search. Decision Support Systems, Amsterdam, The Netherlands, v. 42, n. 3, p. 1338-1349, 2006.

AND ADVANCED TECHNOLOGY FOR DIGITAL LIBRARIES, 4., 2000, Lisbon, Portugal. Proceedings... Berlin/Heidelberg: Springer, v. 1923, 2000. p. 280-290. (Lecture Notes in Computer Science).

FREW, J. et al. The Alexandria Digital Library Architecture. International Journal on Digital Libraries, Springer Berlin/Heidelberg, v. 2, n. 4, p. 259-268, May 2000.

INSTITUTO BRASILEIRO DE GEOGRAFIA E ESTATÍSTICA (IBGE). Mapas Interativos – IBGE. Disponível em: <http://www.ibge.gov.br/mapas/>. Acesso em: 2 mar. 2009.

FU, G.; JONES, C. B.; ABDELMOTY, A. I. Ontology-based spatial query expansion in information retrieval. In: INTERNATIONAL CONFERENCE ON ONTOLOGIES, DATABASES AND APPLICATIONS OF SEMANTICS (ODBASE), 4, 2005, AGIA NAPA/CYPRUS. On the Move to Meaningful Internet Systems 2005: CoopIS, DOA, and ODBASE. Berlin/Heidelberg: Springer, 2005. p. 1466-1482. (Lecture Notes in Computer Science). GOOGLEa. Google AJAX Search API – Google Code. Disponível em: <http://code.google.com/apis/ajaxsearch/>. Acesso em: 2 mar. 2009. GOOGLEb. Google Maps API Reference – Google Maps API – Google Code. Disponível em: <http://code.google.com/apis/maps/documentatio n/reference.html>. Acesso em: 2 mar. 2009. GOOGLEc. Local Search Examples – Google AJAX Search API – Google Code. Disponível em: <http://code.google.com/apis/ajaxsearch/local.ht ml>. Acesso em: 2 mar. 2009. GOOGLEd. Map Basics – Google Maps API – Google Code. Disponível em: <http://code.google.com/apis/maps/documentatio n/introduction.html>. Acesso em: 2 mar. 2009. HE, D. A Study of Self-organizing Map in Interactive Relevance Feedback. In: INTERNATIONAL CONFERENCE ON INFORMATION TECHNOLOGY: NEW GENERATIONS, 3., 2006, Las Vegas, Nevada, USA. Proceedings... IEEE Computer Society, 2006. p. 394-401, ISBN 0-7695-2497-4. HENRICH, A.; LUEDECKE, V. Characteristics of Geographic Information Needs. In: ACM WORKSHOP ON GEOGRAPHICAL INFORMATION RETRIEVAL, 4., 2007, Lisbon, Portugal. Proceedings... Lisbon, Portugal: ACM, 2007. p. 1-6, ISBN 978-1-59593-828-2. HILL, L. Core Elements of Digital Gazetteers: Placenames, Categories, and Footprints. In: EUROPEAN CONFERENCE ON RESEARCH

18

JONES, C. B. et al. The Spirit Spatial Search Engine: Architecture, Ontologies and Spatial Indexing. In: GEOGRAPHIC INFORMATION SCIENCE. Proceedings... Berlin/Heidelberg: Springer, 2004. p. 125-139. (Lecture Notes in Computer Science). JONES, C. Geographic Information Retrieval. In: BRAZILIAN SYMPOSIUM ON GEOINFORMATICS, 8., 2006, Campos do Jordão, Brazil. Proceedings... São José dos Campos, Brazil: INPE, 2006. Disponível em: <http://www.geoinfo.info/geoinfo2006/program.ht ml>. Acesso em: 2 mar. 2009. LARSON, R. R. Geographic information retrieval and spatial browsing. In: CLINIC ON LIBRARY APPLICATIONS OF DATA PROCESSING, 32., 1995, Urbana-Champaign, USA. Proceedings... Urbana-Champaign, USA: University of Illinois, 1995. p. 81-124, ISBN 0878450971. (Geographic Information systems and Libraries: patrons, maps, and spatial information). PASLEY, R. C.; CLOUGH, P. D.; SANDERSON, M. Geo-tagging for Imprecise Regions of Different Sizes. In: ACM WORKSHOP ON GEOGRAPHICAL INFORMATION RETRIEVAL, 4., 2007, Lisbon, Portugal. Proceedings... Lisbon, Portugal: ACM, 2007. p. 77-82, ISBN 978-1-59593-828-2. POPESCU, A.; GREFENSTETTE, G.; MOËLLIC, P. A. Gazetiki: Automatic Creation of a Geographical Gazetteer. In: ACM/IEEE-CS JOINT CONFERENCE ON DIGITAL LIBRARIES, 8., 2008, Pittsburgh, USA. Proceedings... Pittsburgh, USA: ACM, 2008. p. 85-93, ISBN 978-1-59593-998-2. POSTGRESQL. PostgreSQL: The World’s Most Advanced Open Source Database. Disponível em: <http://www.postgresql.org/>. Acesso em: 2 mar. 2009. PYTHON SOFTWARE FOUNDATION. Python Programming Language – Official Website. Disponível em: <http://www.python.org/>. Acesso em: 2 mar. 2009.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010


Revisitando os desafios da recuperação de informação geográfica na Web

QIN, J.; PALING, S. Converting a Controlled Vocabulary into an Ontology: the Case of Gem. Information Research: An International Electronic Journal, v. 6, p. 94, 2001. Disponível em: <http://InformationR.net/ir/6-2/paper94.html>. Acesso em: 2 mar. 2009.

USA: ACM, 2006. p. 5-8.

REFRACTIONS RESEARCH. PostGIS Homepage. Disponível em: <http://postgis.refractions.net/>. Acesso em: 2 mar. 2009.

VESTAVIK, Ø. Geographic Information Retrieval: An Overview. In: COMPUTER SCIENCE GRADUATE STUDENT CONFERENCE, 2004, Norway. Electronic Proceedings... Norway: IDI, NTNU, 2004. p. 7. Disponível em: <http://csgsc.idi.ntnu.no/2004/data/oyvindve/articl e.pdf>. Acesso em: 2 mar. 2009.

RIGAUX, P. et al. Spatial Databases: With Application to GIS. California, USA: Morgan Kaufmann, 2002. 410 p. (The Morgan Kaufmann Series in Data Management Systems). ISBN 1-55860-588-6. SANDERSON, M.; HAN, Y. Search Words and Geography. In: ACM WORKSHOP ON GEOGRAPHICAL INFORMATION RETRIEVAL, 4., 2007, Lisbon, Portugal. Proceedings... Lisbon, Portugal: ACM, 2007. p. 13-14, ISBN 978-1-59593-828-2. SANTOS, D.; CHAVES, M. S. The Place of Place in Geographical IR. In: WORKSHOP ON GEOGRAPHIC INFORMATION RETRIEVAL, 3, 2006, Seattle, USA. Proceedings... New York,

TRUST, J. P. G. Getty Thesaurus of Geographic Names (Research at the Getty). Disponível em: <http://www.getty.edu/research/conducting_resea rch/vocabularies/tgn/>. Acesso em: 2 mar. 2009.

XU, J. et al. Directly Optimizing Evaluation Measures in Learning to Rank. In: ANNUAL INTERNATIONAL ACM SIGIR CONFERENCE ON RESEARCH ON DEVELOPMENT IN INFORMATION RETRIEVAL, 31., 2008, New York, USA. Proceedings... New York, USA: ACM, 2008. p. 107-114, ISBN 978-1-60558-164-4. XU, Z.; XU, X.; TRESP, V. A Hybrid Relevance Feedback Approach to Text Retrieval. In: EUROPEAN CONFERENCE ON INFORMATION RETRIEVAL RESEARCH, 25., 2003, Pisa, Italy. Proceedings... Berlin: Springer-Verlag, 2003. p. 281-293. (Lecture Notes in Computer Science).

Abstract The geographic information is part of people’s daily life. There is a huge amount of information on the Web about or related to geographic entities and people are interested in localizing them on maps. Nevertheless, the conventional Web search engines, which are keyword-driven mechanisms, do not support queries involving spatial relationships between geographic entities. This paper revises the Geographic Information Retrieval (GIR) area and restates its research challenges and opportunities, based on a proposed architecture for carrying out Web queries involving spatial relationships and an initial implementation of that arquitecture. Key words: Information retrieval. Web search. Geographical query. Spatial relationship. GIR.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 7-20, jan./jun. 2010

19



Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos João Batista Rosolem*, Claudio Floridia, Danilo César Dini, Claudio Antonio Hortencio, Flávio Borin, João Batista de Mello Ayres Neto, Rogério Lara Leite, Eduardo Ferreira da Costa, Edson Wilson Bezerra, Antônio Amauri Juriollo, Jacques Philippe Marcel Sanz**, Norberto Bramatti** Levando-se em conta o fato de que as usinas hidroelétricas são hoje as principais fontes de energia do sistema elétrico nacional, pode-se notar que o desenvolvimento de métodos de proteção e acompanhamento preditivo tornou-se fundamental para impedir impactos danosos aos geradores e consequentes paradas prolongadas. Nesse aspecto, a monitoração on-line dos parâmetros dos hidrogeradores é muito importante. Uma abordagem relativa à monitoração consiste em investir na confiabilidade dos sensores e na possibilidade de implantação de redes de sensoriamento nos hidrogeradores, dado que, normalmente, há uma grande necessidade de monitoramento em inúmeros pontos e parâmetros nos hidrogeradores. Com o advento da tecnologia de sensores de fibra óptica, novas e vantajosas alternativas de medição são disponibilizadas, atendendo a esses quesitos. Este artigo apresenta os resultados do desenvolvimento de três tipos de sistemas de sensoriamento óptico a serem utilizados na monitoração de parâmetros dos hidrogeradores: sensoriamento de descargas parciais, sistema de sensoriamento de proximidade do rotor/estator e sistema de sensoriamento de temperatura e deformação do rotor. Palavras-chave: Hidrogeradores. Rotor. Estator. Smart grid. Sensor óptico. Introdução No Brasil, a produção de energia é realizada, principalmente, por meio de usinas hidroelétricas, dadas as grandes bacias hidrográficas de que o País dispõe. De toda a energia gerada, cerca de 90% provém de usinas hidroelétricas. Devido à importância dessas usinas como fonte de energia principal, o ONS (Operador Nacional do Sistema Elétrico) mantém as unidades de produção (hidrogeradores) em sua carga nominal, apenas removendo-as do serviço em casos de demanda reduzida, necessidade de pausa para manutenção ou quando as condições dos reservatórios exigem tal retirada. Os custos incidentes sobre a hora de cada máquina parada – sejam eles advindos de lucros cessantes ou, ainda, dos próprios custos decorrentes dos eventos de manutenção – tornam fundamental o desenvolvimento de métodos de proteção e de acompanhamento preditivo, de modo a impedir que os geradores sofram impactos danosos, o que ocasionaria paradas prolongadas (LLOYD; CAMPBELL; STONE, 1999), fora dos períodos de demanda reduzida ou de nível reduzido de reservatório. Essa estratégia vem ao encontro do conceito de smart grid (US DEPARTMENT OF ENERGY, 2008), de acordo com o qual a automação e a digitalização das redes elétricas é possibilitada pela incorporação de: tecnologias de informação, telecomunicações, sensoriamento e monitoração para o melhor desempenho da rede.

Assim, torna-se possível identificar, antecipadamente, as falhas da rede e capacitá-la para se autorrecompor diante de ocorrências que possam afetar seu desempenho. As empresas geradoras do setor elétrico vêm buscando, desde a década passada, sistemas de monitoração para hidrogeradores. O objetivo é fornecer às equipes de operação e manutenção uma ferramenta de diagnóstico, destinada a prever defeitos em formação, a partir do tratamento das grandezas monitoradas. Uma abordagem relativa à monitoração consiste em investir na confiabilidade dos sensores e na possibilidade de implantação de redes de sensoriamento nos hidrogeradores, tendo em vista a necessidade de monitorar uma grande quantidade de pontos e parâmetros. Com o advento da tecnologia de sensores de fibra óptica, novas alternativas de medição se apresentam. As vantagens dos sensores ópticos são (CULSHAW; KERSEY, 2008): imunidade das fibras ópticas frente às interferências eletromagnéticas; capacidade de transmissão de sinais de frequência e largura de banda elevadas; capacidade de multiplexação de sinais de vários sensores em uma única fibra; compactação e uso de espaços reduzidos; possibilidade de medidas não invasivas, além do baixo custo proporcionado pela escolha de elementos adequados para a monitoração. Neste artigo, apresentamos os resultados do desenvolvimento de três tipos de sistemas de sensoriamento óptico a serem utilizados na

*Autor a quem a correspondência deve ser dirigida: rosolem@cpqd.com.br. **Centro de Tecnologia da Eletronorte. Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010


Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos

monitoração de parâmetros do hidrogerador. Para melhor descrever os resultados obtidos nesses projetos, bem como os parâmetros a serem monitorados, na Seção 1 apresentamos os resultados do desenvolvimento de um sistema de sensoriamento óptico de descargas parciais. Na Seção 2, apresentamos os resultados do desenvolvimento de um sistema de sensoriamento óptico de proximidade do rotor/estator e, na Seção 3, os resultados do desenvolvimento de um sistema de sensoriamento óptico de temperatura e deformação do rotor. 1

Sistema de sensoriamento óptico de descargas parciais para o estator

A ocorrência de descargas parciais nos sistemas isolantes dos equipamentos de alta tensão é um sintoma de fragilidade na capacidade dielétrica, cuja evolução pode acarretar graves consequências para o equipamento e para o sistema elétrico. A avaliação de equipamentos de alta tensão, quanto à geração de descargas parciais, é uma ferramenta preditiva, que pode auxiliar na realização da manutenção prévia dos equipamentos (HUDON; BÉLEC, 2005; IEEE, 2000). A partir dessa avaliação, pode-se providenciar uma intervenção no sistema ou sua substituição, antes que ele sofra danos mais graves ou, até mesmo, antes que seja afetado como um todo. Descargas parciais ocorrem devido à ação de vários mecanismos de falhas, como sobrecargas térmicas, movimentos mecânicos, má impregnação do isolamento, deterioração da camada semicondutora, entre outros (BARTNIKAS, 2002). Monitorando-se as descargas parciais, que são sintomas evidentes desses mecanismos, é possível determinar se está ocorrendo deterioração do isolamento e se ele apresenta risco de falha. Testes de descargas parciais também auxiliam a equipe de manutenção a determinar, previamente, qual o tipo de reparo necessário. De uma maneira geral, esse envelhecimento acelerado dos materiais isolantes, com a ocorrência subsequente de descargas parciais, é um ponto crítico na maioria dos grandes equipamentos elétricos. Os hidrogeradores não constituem exceção e têm, no isolamento de suas barras estatóricas, um de seus elos mais fracos. Vibração nas barras, vazios no isolamento, contaminação do isolamento e deterioração das cabeças das bobinas são falhas existentes no estator e passíveis de serem detectadas, por meio da monitoração de descargas parciais. Estas caracterizam-se por um processo de ionização em ambiente gasoso no interior dos materiais dielétricos, causado por um campo elétrico intenso e localizado. A partir desse processo, diversas grandezas físicas são

22

geradas no local, tais como pulsos: eletromagnéticos conduzidos e irradiados, luminosidade, ruído acústico, acréscimo de temperatura e reações químicas localizadas. O sistema de sensoriamento óptico de descargas parciais para o estator desenvolvido baseia-se na captação dos pulsos eletromagnéticos irradiados pelas descargas parciais. O sistema consiste, basicamente, no uso de uma antena dipolo (ou de qualquer outro tipo) acoplada diretamente às portas (anodo e catodo) de um laser semicondutor de baixa corrente de limiar. Para que o sensor laser possa transmitir a forma de onda completa, é necessário polarizá-lo com uma corrente contínua acima do limiar. Isso pode ser feito facilmente em aplicações gerais, por meio de um circuito eletrônico adequado e de uma fonte de tensão ou bateria. No entanto, foi requisito desse projeto que nenhuma alimentação elétrica fosse instalada junto ao sensor, de modo a não causar quaisquer problemas ao hidrogerador. Para solucionar esse problema e polarizar o laser com corrente contínua sem a necessidade de uso de uma fonte de alimentação local, adotou-se a técnica de alimentação óptica (BARTNIKAS, 2002; LANDRY; RUPERT; MITTAS, 1991; ROSOLEM et al., 2009). Assim, uma fibra óptica, diferente da fibra do laser, conduz uma potência óptica em comprimento de onda específico e em nível adequado para alimentar uma célula fotovoltaica instalada junto ao laser. A célula fotovoltaica tem a função de transformar a potência óptica detectada em tensão e corrente para alimentação do laser. A Figura 1(a) ilustra o diagrama do sensor de descargas parciais que utiliza um laser semicondutor, conjugado a uma antena de radiofrequência, e a técnica de alimentação óptica, que denominamos sensor ativo. A célula fotovoltaica utilizada nesse projeto é um dispositivo já adequado para alimentação de sensores. No entanto, sua capacidade de fornecimento de potência é limitada. Estão disponíveis comercialmente células fotovoltaicas para uso com fibras multimodo nas janelas de 810 nm, e fibras monomodo para a faixa de 1.000 a 1.600 nm. Tipicamente, para uma potência óptica de 100 mW em uma carga de 100 Ohms, o valor de tensão é da ordem de 1,0 V para uma corrente de 6 mA. A Figura 1(b) mostra uma caracterização do sensor laser com a célula fotovoltaica incorporada. Foi utilizada, nesse caso, uma fonte de alimentação óptica de alta potência no comprimento de onda de 1.480 nm. Observamos que a corrente do laser é linear, em função da potência óptica no conversor. Já a tensão mínima de operação do laser é de 0,9 V. Outra consideração sobre o sensor é relativa ao tipo de antena a ser empregada. A antena

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010


Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos

escolhida deve atender aos seguintes requisitos: a) ter frequência de ressonância dentro da faixa de interesse das medições de descargas parciais; b) possuir a maior largura de banda possível; c) ter resistência de radiação adequada para casamento de impedância com o laser semicondutor; d) ter boa direcionalidade e dimensões adequadas para instalação nas cabeças das barras do estator do hidrogerador. Diversos tipos de antenas estão disponíveis para esse desenvolvimento. Entre esses tipos, podemos citar: a antena monopolo, a dipolo e a loop. A antena escolhida para o desenvolvimento foi a do tipo dipolo, por sua simplicidade e por possibilitar maiores ganho e largura de banda – além da resistência de radiação mais adequada para casamento de impedância com o laser semicondutor. A vantagem da antena loop é a possibilidade de se obter um comprimento de onda menor – correspondente à metade – do que aquele da antena dipolo simples, para o mesmo comprimento de onda de ressonância. No entanto, a antena loop apresenta diversos

Fonte luz fibra óptica

conversor

laser

choque RF

Correntedo laser (mA)

resistor

18

1.2

16

1.0

14 12

0.8

10

0.6

8 6

0.4

4

Corrente Tensão

2 0

meander

0

50

100

150

200

250

Potência no conversor (mW)

0.2

Tensão no laser(V)

fibra óptica Receptor óptico

parâmetros desvantajosos, tais como: baixa resistência de radiação da antena, baixo ganho da antena em relação ao dipolo e baixa banda passante. As antenas dipolo de meia onda são as mais utilizadas em sistemas de radiocomunicação, e são assim chamadas porque seu comprimento é igual à metade do comprimento de onda para a faixa de frequência em que irá operar. Em outras palavras, em cada parte da antena, o sistema irradiante (comprimento) terá um quarto (1/4) do comprimento de onda para a faixa de operação. Assim, escolhemos um tipo de antena dipolo linear que é utilizada em espaços restritos, como é o caso dos hidrogeradores. O tipo de antena dipolo escolhido foi a antena meander (FREESCALE SEMICONDUCTOR, 2006; RASHED; TAI, 1991). Na antena meander1, os braços lineares da antena dipolo são confeccionados conforme uma estratégia de ida e volta no eixo perpendicular ao eixo normal da antena dipolo, até completar seu tamanho estimado. A antena meander é confeccionada em circuito impresso, o que lhe garante bastante robustez. A Figura 2(a) mostra um primeiro empacotamento utilizado para o sensor. A Figura 2(b) mostra uma caracterização do sensor,

0.0 300

(a) (b) Figura 1(a) Diagrama esquemático do sistema de sensoriamento de descargas parciais baseado no laser semicondutor na forma ativa e (b) caracterização do sensor laser com a célula fotovoltaica incorporada

(a) (b) Figura 2(a) Sensor confeccionado conforme os dados de simulação e (b) curva de potência óptica gerada pelo sensor laser em função da potência óptica de alimentação da célula fotovoltaica ______________________________________ 1 Ver Figura 1(a).

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010

23


Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos

através da curva de potência óptica contínua do laser de sinal pela potência óptica de alimentação na célula fotovoltaica. Algumas curvas temporais das descargas são mostradas, também, para três níveis de potência óptica de alimentação. Para testar o sensor desenvolvido em condições mais próximas da sua operação real, ou seja, para monitorar descargas parciais provenientes do estator, foram realizados testes em um laboratório especializado em medição de descargas parciais. Utilizou-se uma barra de um estator proveniente de um hidrogerador para gerar as descargas parciais. A barra em questão foi escolhida por já apresentar alto índice de ocorrência de descargas parciais. Nos testes realizados, os dados das descargas foram obtidos tanto pela utilização do sensor desenvolvido como pelo sistema de monitoraçãopadrão baseado em acoplamento capacitivo. O próximo passo, nesse desenvolvimento, foi testar o sensor no estator de um hidrogerador real. Para tanto, outros fatores, tais como a temperatura de operação e o acondicionamento do sensor acima das barras do estator, foram analisados antes de sua instalação. A elevada temperatura na proximidade das barras das bobinas do estator (aproximadamente de 70 a 80ºC no ar e 90ºC no metal da barra) poderia comprometer o desempenho do sensor. Porém, o sistema desenvolvido possui um mecanismo de realimentação automático que possibilita o controle da condição operacional do laser. O sistema foi testado em laboratório e mostrou excelente estabilidade até a temperatura de 100ºC. O sistema de sensoriamento óptico de descargas parciais foi instalado, para testes de campo, em um hidrogerador de uma usina hidroelétrica instalada no interior do Amapá, junto a um sistema convencional de medição de descargas parciais. Desde sua instalação, o sistema de medição tem apresentado excelente desempenho. Apesar de descrevermos, neste artigo, o sensor de descargas parciais com a antena do tipo meander, outros tipos de antena estão sendo pesquisados e desenvolvidos, como, por exemplo, uma linha de transmissão diretamente acoplada e colada na barra do estator, sendo conectada ao laser por um cabo coaxial. É interessante, também, mencionar que essa tecnologia pode ser utilizada, em outras situações, para medições de campo elétrico gerado ou não por descargas elétricas. Outros exemplos de aplicação em sistemas elétricos são as medições de descargas de transformadores, subestações blindadas isoladas a gás SF6, cabos de transmissão, entre outros.

24

2

Sistema de monitoração do balanceamento do eixo do hidrogerador por sensor óptico de proximidade

Em hidrogeradores é importante que o eixo da turbina não sofra nenhum desbalanceamento, de forma a evitar desgastes nos mancais e no desempenho da máquina. Para tanto, deve-se monitorar continuamente a órbita da máquina. Isto é realizado por meio de sensores de proximidade que medem a variação de distância entre o eixo e dois sensores posicionados de modo a formar um ângulo de 90º entre si. A tecnologia do sensor óptico de proximidade desenvolvido baseia-se na deformação de uma fibra de Bragg (Fiber Bragg Grating – FBG) (KERSEY et al., 1997), provocada pela força magnética de um ímã preso a essa fibra (MORA et al., 2000). O esquema do sistema de sensoriamento óptico de proximidade é apresentado na Figura 3(a). Esse sistema permite monitoração com independência de temperatura pelo uso de duas FBGs com comprimentos de onda ligeiramente sobrepostos. Na Figura 3(a), o sinal óptico de banda larga (SOA ou LED, por exemplo) passa por um circulador óptico e é refletido pela primeira FBG. O sinal refletido passa, então, pelo segundo circulador óptico e é, novamente, refletido pela segunda FBG. Como resultado, apenas a sobreposição do espectro de reflexão de cada uma das FBGs será detectada na recepção óptica. A Figura 3(b) mostra o encapsulamento do sensor. Nessa configuração, apenas uma das FBGs (FBG2) sofre a ação de deformação, devido à atração magnética do eixo do rotor. A FBG1 deverá ficar próxima o suficiente da grade FBG2 para permanecer na mesma temperatura ambiente (CHIANG et al., 2002; XU et al., 1994). Entre os requisitos que esse sensor deve apresentar, estão: resposta linear em um intervalo de até 2,0 mm, com precisão de 15 µm; independência de fatores externos, como a temperatura; e velocidade de aquisição da ordem de 1.000 Hz. Foram realizadas medidas de tensão em função da distância de um alvo metálico, aproximando-se e afastando-se dele o sensor. As curvas obtidas são mostradas na Figura 4(a). Para a calibração dos protótipos dos sensores ópticos de proximidade, foi utilizada uma montagem experimental, na qual os sensores variavam a distância em relação a um bloco de aço ABNT 1045 com dimensões de 152 mm (largura) x 152 mm (altura) x 100 mm (profundidade), para simular o material da árvore da turbina hidroelétrica, constituída de aço forjado ASTM 668 CL e aço ABNT 1045. As potências ópticas da reflexão das grades de Bragg foram medidas utilizando um medidor de potência óptica, em função do deslocamento do

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010


Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos

sensor montado na base do trilho óptico. O próximo passo foi a realização do teste de campo em uma usina hidroelétrica instalada no interior de Rondônia, para o qual foram desenvolvidos dois conjuntos de sensores ópticos de proximidade. A Figura 4(b) ilustra a montagem dos sensores ópticos de proximidade no interior do poço da unidade geradora, bem como todos os componentes utilizados no teste de campo. Um sinal do sensor de proximidade, posicionado a 3 mm do eixo, é mostrado no gráfico inserido na Figura 4(b). Observa-se a existência de desbalanceamento, evidenciada pela variação do sinal capturado em função do tempo. 3

Sistema de sensoriamento óptico de temperatura e deformação do rotor

Intensidade

A estabilidade mecânica e a temperatura de operação dos rotores de hidrogeradores são parâmetros dinâmicos que devem estar sempre dentro de margens preestabelecidas (DOUGLAS, 1988). A monitoração da evolução e o controle desses parâmetros impedem a operação fora dessas margens e, também, evitam graves consequências para o equipamento e para o sistema elétrico. Instabilidades no sistema rotor podem gerar campos magnéticos localmente intensos, que induzem correntes espúrias, o que ocasiona

Fibras Fibrasópticas ópticas

Circulador

λ

FBG2

Intensidade

Intensidade

λ

Recepção óptica

FBG

Alvo metálico

λ

Sinal detectado

Magneto

FBG1

Intensidade

SOA ou LED

sobrecargas, deformações nas formas de onda e aumentos de temperatura. A partir desse processo de deterioração, diversas grandezas físicas são geradas no local, como pulsos eletromagnéticos conduzidos e irradiados, elevação de temperatura e vibrações não harmônicas. Vibração nas barras, vazios no isolamento, contaminação do isolamento, descargas elétricas nas cabeças das bobinas, descargas elétricas nas ranhuras e deterioração das cabeças das bobinas são falhas que podem ocorrer no rotor ou no estator, causando efeitos indesejáveis no funcionamento do hidrogerador. Um agravante do processo é o envelhecimento acelerado dos mancais de sustentação, bem como dos materiais isolantes, com a ocorrência, inclusive, de fugas e descargas parciais, além do fato de se ter um sistema dinâmico em movimento com forças variáveis. Em função de curto-circuitos entre espiras do rotor, ocorre um aumento da corrente de magnetização, o que ocasiona o aparecimento de pontos quentes em outros setores do rotor e a diminuição do rendimento do gerador. Outro problema relacionado aos rotores são as deformações mecânicas ocorridas em função da não homogeneidade do material do rotor e variação da temperatura ambiente. Essa deformação pode levar à distorção do campo magnético gerado, ocasionando perdas na máquina.

Magneto

λ

(a) (b) Figura 3(a) Esquema do sistema de sensoriamento óptico de proximidade e (b) desenho do sensor óptico de proximidade usando FB -20

Potência Óptica (dBm)

Proximidade 10,9 mm 5,9 mm 4,4 mm 3,9 mm 3,4 mm

-30

-40

-50

-60

-70 1549

1550

1551

1552

1553

1554

Comprimento de onda (nm)

(a) (b) Figura 4(a) Potências ópticas da reflexão das grades de Bragg obtidas na recepção em função da proximidade do rotor e (b) sensores instalados na unidade geradora número 3 da usina hidroelétrica Samuel

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010

25


Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos

Por esses motivos, deve-se medir a temperatura em alguns pontos do rotor e realizar a transmissão dessa informação para fora do rotor. Algumas técnicas têm sido propostas para monitoração on-line de alguns parâmetros do rotor do hidrogerador (JOVANOVIC, 2000; SÁ; SILVA, 1995; WILLSCH et al., 2008) e são baseadas na transmissão das informações dos dados de dentro do rotor, por meio de óptica espacial (LEDs alinhados com fotodetectores) ou por transmissão de rádio. Em todo o caso, essas técnicas exigem uma alimentação elétrica permanente para a unidade de sensoriamento, o que limita a aplicação no rotor a um tempo limitado. O sistema desenvolvido é de sensoriamento passivo, ou seja, sem alimentação que colete dados no rotor e transmita esses dados para o sistema de monitoração instalado na parte fixa e externa da máquina. O sistema de sensoriamento óptico de temperatura e deformação do rotor idealizado é ilustrado na Figura 5. Na parte móvel (rotor) ficam componentes ópticos totalmente passivos: os sensores do tipo FBG e o colimador móvel. Cada FBG corresponde a um ponto de monitoração de temperatura e/ou deformação. Na parte fixa ficam o interrogador – composto de fonte de luz, analisador de canais ópticos (Optical Channel Analyzer – OCA) e circulador óptico – e o colimador fixo. O sistema funciona do seguinte modo: a fonte de luz de banda larga emite luz pela fibra óptica até o colimador fixo. Este transmite luz ao colimador móvel, quando ocorre alinhamento (a cada volta do rotor). Essa luz, então, é refletida em Fonte de luz de banda larga

comprimentos de onda específicos dados pelas FBGs, que são os elementos sensores. A luz refletida passa pelo colimador móvel e é captada pelo analisador de canais ópticos, que mede o comprimento de onda de cada um dos elementos sensores. Com o aumento ou a diminuição de temperatura local (ou deformação), os comprimentos de onda observados no interrogador são alterados. Os colimadores têm a função de alargar o feixe de luz para dimensões finitas, facilitando o alinhamento óptico. Os sensores de temperatura e deformação utilizados são baseados na tecnologia FBG e são dispositivos de grau industrial destinados a ambientes hostis, encontrados em aplicações nos ramos da energia, da construção civil, do transporte e da indústria aeroespacial. Esses sensores podem ser usados isoladamente ou como parte de uma rede de sensores por FBGs. Podem, também, ser facilmente montados diretamente sobre a maioria dos materiais com epóxi, parafusos ou ponto de solda. Os colimadores utilizados não têm nenhuma peça móvel, são compactos e não suscetíveis a desalinhamento. A lente possui um revestimento antirreflexivo, que minimiza as reflexões na sua superfície. O interrogador é o equipamento que permite a visualização do espectro óptico, com a presença dos sinais de retorno das fibras com grade. Esse equipamento foi desenvolvido, inicialmente, para uso em telecomunicações e posteriormente foi adaptado para uso em sensoriamento, com a inclusão de uma fonte de luz de banda larga. O equipamento desenvolvido baseia-se no uso de tecnologias modulares comerciais.

Fibra óptica Eixo do rotor

ASE Circulador óptico

MCO

Colimador óptico

Analisador de canais ópticos

Colimador Rotor

Interrogador

FBG

Sensor FBG

Figura 5 Sistema de sensoriamento óptico de temperatura e deformação do rotor

26

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010


Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos

1532.0

40 Max Media Min

35 30 25 20 15 10 5 0 0

pôde ser ajustada de 0 a 800 rpm. O objetivo foi simular rotores de hidrogeradores de diversas velocidades de rotação. Na Figura 6(a), observamos o intervalo entre duas medidas consecutivas (capturas de espectro consecutivas, que equivalem a medidas de temperatura sobre o rotor) ao longo do tempo de ensaio (1 hora). Por exemplo, notamos que, a 63 rpm, a maioria dos espectros foram captados em menos de 10 segundos e, em média, a cada 8,7 s. O tempo máximo entre uma captura e outra foi de 35 s. Já para 630 rpm (valor mais próximo do rotor do hidrogerador da Pequena Central Hidroelétrica Luiz Dias), a maioria dos espectros foi capturada em menos de 1,5 s, com valor médio de 1 s e tempo máximo de 3,3 s. A calibração dos sensores FBG foi realizada por meio da comparação entre um sensor eletrônico LM35 e um sensor óptico com fibra com grade de Bragg comercial, em um ciclo de aquecimento e resfriamento da temperatura ambiente em até 65°C. O teste foi realizado aquecendo-se ambos os sensores e registrando os valores de temperatura fornecidos pelo LM35 e o comprimento de onda refletido pela FBG ao longo do tempo. Um gráfico com a curva de calibração do sensor FBG, obtido pela comparação entre dados de comprimento de onda em função da temperatura registrada pelo sensor eletrônico LM35, e seu ajuste linear é mostrado na Figura 6(b). Como pode ser observado nessa curva, o sistema de sensoriamento óptico de temperatura é muito linear. Foi realizado um teste de aquecimento e resfriamento sobre a parte girante de um torno mecânico, para simular situação análoga à que seria encontrada em uma máquina real. Uma bateria induziu o aquecimento de um resistor (situação análoga ao curto das espiras do rotor). O rotor foi posto em movimento e os dados foram registrados durante 30 minutos (tempo necessário para o resistor aquecer e esfriar). Dois dos três sensores foram colocados sobre a resistência e o terceiro foi mantido termicamente isolado. Comprimento de onda nm) (

Intervalo entre medições (s)

A estratégia adotada é a integração dos seguintes módulos: a) analisador de canais ópticos (OCA); b) placa de processamento de dados; c) placa de comunicação Ethernet; d) chave óptica, para a leitura de diversas entradas ópticas (sistemas com múltiplas fibras com grade); e) circulador para rotear a luz enviada para os sensores e que retorna para o OCA; e f) fonte de luz ASE (Amplified Spontaneous Emission), para gerar luz em banda larga para os sensores a fibra com grade (FBGs). O módulo OCA comercial utiliza a tecnologia de fibra de Bragg (Blazed FBG) e matriz de fotodetectores para ler o espectro óptico da banda C (1.528 a 1.568 nm). A precisão do equipamento na leitura de comprimento de onda é de 0,05 nm e a precisão de potência lida é de 0,5 dB. A faixa de medição da razão óptica sinal-ruído é de 10 a 28 dB. O tempo de leitura de toda a banda espectral da banda C é inferior a 100 ms. O módulo de chaveamento óptico utiliza tecnologia MEMS (Micro Electro-Mechanical Systems) e pode, de acordo com a aplicação, possuir até 16 portas ópticas de entrada para cada uma de saída. O módulo de processamento de dados possui microprocessador de 32 bits, operando em 50 MHz de frequência de relógio e 8 MB de memória flash. Esse módulo possui, embutido, o sistema operacional Linux, que realiza algumas operações com os dados enviados pelo módulo OCA antes de exteriorizálos. O módulo OCA, já integrado a todos esses outros módulos, exterioriza os dados via interface Ethernet 10BaseT ou via interface serial. O interrogador possui, embutido, um módulo de fonte óptica de luz ASE, que cobre a faixa de funcionamento das fibras – que vai de 1.528 a 1.564 nm. No detalhe da Figura 5, mostra-se uma foto do interrogador desenvolvido. Os testes do sistema de sensoriamento óptico de temperatura e deformação do rotor foram realizados em um torno mecânico, cuja rotação

100

200

300

400

500

600

700

800

λ[nm] =1530.379 + 0.033184 (T[°C]- 24.10) 1531.5

1531.0

1530.5

1530.0

20

30

40

50

Rotação (rpm)

Temperatura (°C)

(a)

(b)

60

70

Figura 6(a) Intervalos de tempo máximo, médio e mínimo de detecção de espectros consecutivos em função da velocidade de rotação do torno mecânico e (b) curva de calibração do sensor FBG

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010

27


Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos

Na Figura 7(a), observamos o deslocamento do comprimento de onda dos sensores de FBG. Notamos que o sensor termicamente isolado não teve alteração no comprimento de onda. Esses resultados foram obtidos com o rotor em movimento com uma rotação de 500 rpm. A Figura 7(b) mostra as temperaturas obtidas a partir das variações de comprimento de onda registradas (usando a calibração indicada no inset da Figura 6(b)). Observa-se que a temperatura dos sensores, em contato com o resistor, atingiu o pico de 75ºC. Após atingir essa temperatura, a bateria descarregou e a temperatura decaiu lentamente, até o valor do ambiente circunstante. Os resultados obtidos em laboratório com esse sistema são muito promissores. Pretende-se, em breve, realizar um teste de campo em uma hidroelétrica para comprovar os resultados em uma situação real de funcionamento.

tecnologia de fibra óptica. Referências BARTNIKAS, R. Partial discharges: their mechanism, detection and measurement. IEEE Transactions on Dielectrics and Electrical Insulation, v. 9, n. 5, Oct. 2002. CHIANG, Y. J. et al. Multipoint temperature-independent fiber-Bragg-grating strain-sensing system employing an opticalpower-detection scheme. Applied Optics, v. 41, n. 9, p. 1661-1667, 2002. CULSHAW, B.; KERSEY, A. Fiber-Optic Sensing: A Historical Perspective. Journal of Lightwave Technology, v. 26, n. 9, May 1st 2008. DOUGLAS, J. Hydro Generator Failure. IEEE Power Engineering Review, v. 8, n. 11, p. 4-6, Nov. 1988.

Conclusão

HUDON, C.; BÉLEC, M. Partial Discharge Signal Interpretation for Generator Diagnostics. IEEE Transactions on Dielectrics and Electrical Insulation, v. 12, n. 2, p. 297-319, Apr. 2005. INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS (IEEE). IEEE STD 1434-2000: Trial-use guide to the measurement of partial discharges in rotating machinery. 2000. 80

Sensor 1 Sensor 2

1558 1556

Sensor 3

1554 1552 1550 1548 1546 00:00:00

FREESCALE SEMICONDUCTOR. Compact Integrated Antennas. Application Note: AN2731, Rev. 1.4. Freescale Semiconductor, jul. 2006. Disponível em: <http://www.freescale.com/files/rf_if/doc/app_not e/AN2731.pdf>. Acesso em: 23 abr. 2010.

Sensor 1 Sensor 2

70

Temperatura (°C)

Comprimento de onda (m)

Neste trabalho apresentamos os resultados do desenvolvimento de três tipos de sistemas de sensoriamento – baseados em tecnologia de fibra óptica – a serem utilizados na monitoração de parâmetros do hidrogerador. As características da fibra óptica conferem uma série de vantagens em relação aos sistemas de sensoriamento, como: imunidade eletromagnética, isolamento elétrico, baixo peso, flexibilidade, resistência, entre outras. Os sistemas de sensoriamento foram desenvolvidos para monitorar descargas parciais de estatores, proximidade do rotor/estator e temperatura e deformação do rotor. Os sistemas de sensoriamento desenvolvidos foram testados com êxito e suas características comprovam os benefícios obtidos com o uso da

Sensor 3

60 50 40 30 20 10

00:10:00

00:20:00

00:30:00

0 00:00:00

00:10:00

00:20:00

Tempo (horas)

Tempo (horas)

(a)

(b)

00:30:00

Figura 7(a) Variação do comprimento de onda de três sensores sobre o rotor do torno mecânico durante o teste de simulação de aquecimento e resfriamento e (b) temperaturas correspondentes obtidas2 ____________________________________________________ 2

Note que um dos sensores foi mantido termicamente isolado.

28

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010


Tecnologias de monitoração de hidrogeradores utilizando sensores ópticos

JOVANOVIC, L. D. Optical Transmission System for Acquisition and Measurement of the Signals from the High-speed Rotating Shaft. In: IEEE INSTRUMENTATION AND MEASUREMENT TECHNOLOGY CONFERENCE, 17., 2000, Baltimore, MD. Proceedings... Baltimore, MD, USA: IMTC, 2000. p. 1308-1312, v.3.

ROSOLEM, J. B. et al. Comparative Analysis of Fiber Grating Versus Fiber Powering for Fiber Optical Sensing Applications. In: MICROWAVE AND OPTOELECTRONICS CONFERENCE (IMOC), 2009, Belém, Pará, Brazil. Proceedings... SBMO/IEEE MTT-S International, 2009. p. 641-645.

KERSEY, A. D et al. Fiber grating sensor. Journal of Lightwave Technology, v. 15, n. 8, p. 1442-1463, Aug. 1997.

SÁ, F. S.; SILVA, M. D. Máquinas Rotativas e Conversão de Energia. In: SEMINÁRIO NACIONAL DE PRODUÇÃO E TRANSMISSÃO DE ENERGIA ELÉTRICA (SNPTEE), 13., 1995, Balneário Camboriú, SC. Anais... 1995.

LANDRY, M. J.; RUPERT, J. W.; MITTAS, A. Power-by-light systems and their components: an evaluation. Applied Optics, v. 30, n. 9, p. 1052-1061, Mar. 1991. LLOYD, B. A.; CAMPBELL, S. R.; STONE, G. C. Continuous on-line partial discharge monitoring of generator stator windings. IEEE Transactions on Energy Conversion, v. 14, n. 4, Dec. 1999.

US DEPARTMENT OF ENERGY. Smart Grid: an introduction. USA: DOE’s Office of Electricity Delivery and Energy Reliability, 2008. Disponível em: <http://www.oe.energy.gov/DocumentsandMedia/ DOE_SG_Book_Single_Pages(1).pdf>. Acesso em: 23 abr. 2010.

MORA, J. et al. A magnetostrictive sensor interrogated by fiber gratings for dc current and temperature discrimination. IEEE Photonics Technology Letters, v. 12, n. 12, p. 1680-1682, 2000.

WILLSCH, M. et al. FBG sensor interrogation on rotating parts of large machines in power generation plants. In: INTERNATIONAL CONFERENCE ON OPTICAL FIBRE SENSORS (OFS), 19., 2008, Australia. Proceedings... SPIE, 2008. v. 7004. (Paper 7004_243).

RASHED, J.; TAI, C. T. A new class of resonant antennas. IEEE Transactions on Antennas and Propagation, v. 39, n. 9, Sept. 1991.

XU, M. G. et al. Discrimination between strain and temperature effects using dual-wavelength fiber grating sensors. Electronics Letters, v. 30, n. 13, p. 1085-1087, 1994.

Abstract Since hydroelectric energy are the main energy source of the national electric system, the development of protection and predictive methods and monitoring systems for hydrogenerator has become essential to prevent harmful impacts and consequent lengthy stoppages. Hydrogenerators monitoring systems need to attend to severe reliability criteria and the capability of sensing hundreds of sensors, since typically there are several points and parameters to monitors in hydrogenerators. Fiber optic sensing is a new, viable and reliable technology to be used in hydrogenerators. This paper presents the results of the development of three types of sensing systems based on optical fiber technology for use in hydrogenerator monitoring. The sensing systems have been developed to monitor partial discharge, proximity to the rotor/stator and rotor temperature and deformation. Key words: Hydrogenerator. Rotor. Estator. Smart grid. Optical sensor.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 21-30, jan./jun. 2010

29



Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital Nilsa Toyoko Azana*, Claudia Povoas Schmidt, Sonia Mayumi Kutiishi, Daniel Moutinho Pataca, Ivan Luiz Ricarte** O presente artigo apresenta a aplicação de uma metodologia de cenários prospectivos que determina quais são as questões envolvidas, durante uma tomada de decisão, na identificação dos requisitos fundamentais à criação de uma ferramenta de autoria para TV digital. Por meio do entendimento e da classificação das variáveis relevantes, bem como da análise e do posicionamento dos atores, são traçados os cenários possíveis e os riscos envolvidos na escolha de cada um desses cenários. A aplicação da metodologia resultou na identificação de quarenta cenários. A análise estratégica, realizada com o auxílio da árvore de decisão da ferramenta DecisionPro, indicou cenários para as plataformas de distribuição terrestre e de rede IP que apresentam conteúdos interativos – utilizando uma taxa média para troca de informações individualizadas entre servidor e usuário – e que suportam animação vetorial. A prática sistemática apresentada permite o entendimento de problemas por meio da classificação de ideias, de modo a viabilizar o mapeamento e o tratamento desses problemas, auxiliando, assim, na tomada de decisão. Essa prática possibilita vislumbrar os requisitos fundamentais para a criação de uma ferramenta de autoria para TV digital que atenda aos anseios dos atores envolvidos. Palavras-chave: Ferramenta de autoria. Avaliação estratégica. TV digital. Conteúdos multimídia. Tomada de decisão. Introdução Textos escritos ou falados, imagens fixas ou em movimento, músicas e ruídos são mídias que, combinadas, constroem uma forma de expressão do pensamento humano. Os avanços nas Tecnologias de Informação e Comunicação (TICs) trazem mudanças de paradigma na estruturação das mídias pois despertam nossos sentidos de forma integrada em um único meio e, ao mesmo tempo, alteram a percepção que o usuário tem do conteúdo digital. Assim, tais avanços abrem espaço para serviços que possibilitam a descentralização da produção e da distribuição de informações. Hughes e Lang (2006) citam a mutação das mídias digitais como característica fundamental para permitir a quebra da barreira entre o produtor e o consumidor de conteúdos digitais. Com o auxílio de ferramentas atuais que permitem a fácil manipulação de sons e imagens, está se formando uma nova cultura digital em que o consumidor passa a exercer um papel ativo, manipulando o conteúdo digital (recriando-o ou recontextualizando-o) para gerar novos conteúdos. Jenkis (2008) mostra exemplos do envolvimento dos usuários que usufruem de conteúdos digitais. Eles não se contentam com a observação passiva: geram o movimento que Jenkis denomina “cultura da convergência” e influenciam a construção de novos conteúdos. Diante desse mundo em transformação, onde

existem várias ferramentas para manipulação de conteúdo digital, nosso desafio foi criar uma ferramenta de autoria para TV digital. Assim, buscamos o auxílio de métodos e técnicas para entendermos melhor como enfrentar esse desafio. Este artigo apresenta a identificação dos requisitos fundamentais para a criação de uma ferramenta de autoria para TV digital a partir da aplicação da metodologia de cenários prospectivos, visando uma tomada de decisão. 1

Metodologia aplicada

A metodologia utilizada neste trabalho foi parcialmente aplicada em Azana, Pataca e Ricarte (2007). Trata-se de uma adaptação da metodologia apresentada originalmente por Godet (1994, 1997, 2000). Ela apresenta mecanismos sistemáticos para tratar as informações, permitindo que as avaliações subjetivas sejam guiadas pela compreensão lógica do problema, o que permite criar uma linguagem comum por meio da estruturação e do compartilhamento de ideias por um grupo de especialistas. A metodologia empregada é constituída de cinco etapas, descritas a seguir. 1.1 Etapa 1 – Delimitação do sistema Nesta etapa, são identificados os principais desafios do futuro e as principais ideias existentes sobre o assunto, com o objetivo de

*Autor a quem a correspondência deve ser dirigida: nilsa@cpqd.com.br. **Faculdade de Engenharia Elétrica e de Computação – Unicamp. Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

determinar o conjunto de informações que caracterizam e individualizam o problema a ser resolvido. Ao final desta etapa, é possível entender o problema, e a equipe passa a estar munida com o conhecimento consciente do produto a ser analisado.

1.2.1 Setor 1 – Variáveis influentes ou dominantes

1.2 Etapa 2 – Identificação das variáveis-chave

1.2.2

O objetivo desta etapa é identificar as variáveis que influenciam significativamente o sistema. O método proposto é a análise estruturada, que possibilita a descrição do sistema por meio da estruturação do relacionamento entre as variáveis descritas na Matriz de Inter-Relacionamento das Variáveis (MIRV). Primeiramente, coletam-se as variáveis do sistema estudado de modo exaustivo. Explicita-se cada variável de modo a identificar as relações entre elas e preencher a MIRV, cujas linhas e colunas representam as variáveis identificadas. O valor de cada célula da linha representa a influência que a variável da linha exerce sobre a variável da coluna. O preenchimento da MIRV é um exercício qualitativo e realizado por meio de consenso de opiniões de especialistas (autores do artigo). A intensidade da influência que uma variável exerce sobre as outras é expressa em números que vão de 4 (influência muito forte) a 0 (nenhuma influência). A MIRV não é simétrica, pois a intensidade da influência que a variável exerce sobre as outras variáveis não é necessariamente igual à influência que essas variáveis exercem sobre a primeira. A soma das células de cada linha representa o nível de influência (NI) que a variável exerce no sistema estudado e a soma das células da coluna, o nível de dependência (ND) da variável em relação às outras variáveis do sistema. Para considerar uma possível cadeia de relacionamentos entre as variáveis, utilizamos o método Matriz de Impacto Cruzado – Multiplicação Aplicada à Classificação (MICMAC) descrito em Godet (1994), que consiste na multiplicação de matrizes aplicadas à MIRV para o estudo da difusão do impacto das influências indiretas, criando, assim, uma hierarquia entre as variáveis. A classificação das variáveis depende da influência que elas exercem e de quão dependentes são umas das outras. Assim, plota-se o nível de influência e o nível de dependência de cada variável em um gráfico, cujos eixos ortogonais representam o nível de influência e o nível de dependência. Ao traçarmos uma linha pelo ponto médio dos níveis de influência e dependência, podemos identificar cinco setores, os quais acomodam as variáveis segundo a classificação a seguir.

32

Exercem alto nível de influência e apresentam baixo nível de dependência. São elas que determinam as condições para o resto do sistema. Setor 2 – Variáveis instáveis

Altamente influentes e altamente dependentes. Qualquer alteração nessas variáveis repercute nas outras variáveis, que, por sua vez, as alteram novamente. Nelas devemos focar maior atenção, de modo a entender ou combater seu caráter instável. 1.2.3

Setor 3 – Variáveis resultantes

Exercem baixa influência e são altamente dependentes. São resultado das escolhas das características associadas às outras variáveis. 1.2.4

Setor 4 – Variáveis desconectadas

Exercem baixa influência, são pouco dependentes e, assim, não influenciam as decisões do sistema. Portanto, podem ser excluídas da análise. 1.2.5

Setor 5 – Variáveis indefinidas

Devem ser analisadas caso a caso. 1.3 Etapa 3 – Atores e questões estratégicas Cada ator do sistema tem um certo grau de liberdade para traçar suas estratégias na busca de seus objetivos. Para entender o relacionamento entre os atores, construímos uma matriz de influência entre eles. Nessa matriz, linhas e colunas representam os atores do sistema e células representam a influência que o ator representado pela linha exerce sobre o ator representado pela coluna. Essa influência é mapeada de 3 (forte influência) a 0 (não há influência). A soma das células da linha representa o nível de influência que o ator exerce no sistema e a soma das células da coluna representa o nível de dependência, ou seja, o quanto o ator está sujeito a pressões externas. A aplicação do método Matriz de Alianças e Conflitos – Táticas, Objetivos e Recomendações (MACTOR), descrito em Godet (1994), fornece a relação de poder entre os atores. A utilização de seis perguntas básicas – O quê? Quem? Onde? Quando? Por quê? e Como? – auxilia na criação de um checklist para o entendimento das variáveis-chave. As respostas a essas perguntas possibilitam a identificação das questões estratégicas, ou seja, identificam as questões que estão relacionadas às variáveis-chave e que devem ser analisadas para se ter uma visão dos possíveis cenários futuros.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

Com a identificação das questões estratégicas, monta-se uma matriz para determinar o posicionamento de cada ator em relação a elas, sendo que cada célula indica se o ator é favorável (+1), contrário (-1) ou neutro (0). A soma desses posicionamentos, multiplicada pelo poder relativo de cada ator, representa o grau de importância que a questão estratégica terá frente aos cenários analisados, cujos valores inteiros atuam como peso para a análise dos cenários. 1.4 Etapa 4 – Análise dos cenários Nesta etapa, identifica-se o conjunto de possíveis cenários futuros por meio do método de análise morfológica desenvolvido por Fritz Zwicky (GODET, 1994, 2000). O primeiro passo é a construção do espaço morfológico, por meio da decomposição do sistema estudado em subsistemas. Esses subsistemas são independentes, descrevem o sistema estudado como um todo e podem assumir várias configurações. O conjunto de combinações das diferentes configurações de cada subsistema gera o espaço morfológico ou o conjunto de cenários iniciais. O espaço morfológico, por sua vez, é construído com base nas variáveis-chave identificadas, e os cenários são descritos de modo a responder às questões estratégicas identificadas. Para a análise dos cenários, constrói-se uma matriz na qual cada linha representa um dos cenários possíveis, cada coluna representa uma das questões estratégicas e as células são preenchidas com valores qualitativos de 4 a 1, que representam o nível de contribuição do cenário para a questão estratégica. A soma das notas de cada cenário multiplicada pelo peso da questão estratégica fornece a classificação dos cenários. 1.5 Etapa 5 – Análise de riscos Considerando que os cenários desejados são criados a partir das visões de futuro, Godet alerta para a distinção entre os cenários prospectivos, que projetam os desejos e as angústias face ao futuro, e as opções estratégicas, que expressam as possíveis alterações do ambiente, distinguindo as incertezas mais ou menos acentuadas que pesam sobre os cenários. Assim, esta etapa consiste em identificar as opções estratégicas mais coerentes com a identidade da empresa e com os cenários mais prováveis. Para isso, utiliza-se o método da árvore de relevância, que identifica o desempenho tecnológico necessário para satisfazer as necessidades futuras, por meio de uma classificação em diferentes níveis de complexidade e hierarquia. O nó raiz da árvore representa o objetivo

buscado e os ramos seguintes mapeiam todas as opções estudadas. Para cada um dos ramos, mapeiam-se novamente todas as suas opções, particularizando, cada vez mais, os cenários analisados, de modo que os nós do mesmo nível sejam independentes e não exista relacionamento direto entre os nós não adjacentes. Para cada ramo da árvore, estima-se um valor que represente o quanto esse ramo contribui para o nível imediatamente superior. Essa estimativa significa que, apesar de não conhecermos o futuro, temos uma expectativa dos possíveis desdobramentos e que essas informações devem ser utilizadas na busca pelas melhores opções. A árvore de relevância fornecerá a probabilidade condicional de ocorrência de cada um dos cenários estudados em razão das estimativas apresentadas. A probabilidade condicional de cada cenário, multiplicada pelos valores dos cenários obtidos na etapa de classificação, os reclassificará e enriquecerá com a visão estratégica de como o futuro é projetado. A seguir, serão apresentadas as etapa da metodologia para a análise dos requisitos relacionados à criação de uma ferramenta de autoria para TV digital. 2

Delimitação do sistema

Conteúdos multimídia são conjuntos de diferentes tipos de mídias logicamente interligadas. Um conteúdo multimídia pode ser desenvolvido utilizando-se diretamente a linguagem de programação, o que exige conhecimentos computacionais específicos, cuja curva de aprendizagem é muito longa. Além disso, o processo de codificação dos elementos e das funções de um conteúdo pode ser longo e cansativo. As ferramentas de autoria podem facilitar todo esse trabalho, economizando tempo no desenvolvimento e na manutenção, além de permitir que usuários com diferentes graus de conhecimento computacional criem seus próprios conteúdos multimídia. A ferramenta de autoria multimídia integra, em um mesmo ambiente, os diversos formatos de apresentação das informações: texto, áudio, vídeo, imagens, gráficos, animações e interações que exploram os diferentes sentidos da percepção humana, enriquecendo a experiência do usuário ao agilizar e facilitar a apropriação da informação. Uma ferramenta de autoria multimídia facilita a criação e a edição de conteúdo, permitindo que cada inserção visual, sonora, textual ou interativa não seja simplesmente uma informação adicionada à narrativa, mas uma atração ao usuário. Através do ambiente de apresentação, a ferramenta proporciona diferentes leituras e

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010

33


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

novas experiências ao consumidor do conteúdo. O contexto deste trabalho terá como foco a criação de uma ferramenta de autoria de conteúdo multimídia para distribuição em plataformas de TV digital no panorama brasileiro. 3

Identificação das variáveis-chave

A rápida evolução tecnológica proporciona a convergência dos vários segmentos dos meios de comunicação, e essa alteração, migração ou retirada de fronteiras dificulta o entendimento de como, e para onde, caminha a evolução dos novos produtos e serviços, especialmente aqueles relacionados a conteúdos digitais. O método utilizado neste trabalho consiste em listar, por meio de pesquisa secundária, todas as variáveis que contemplam as dimensões tecnológicas, econômicas, políticas, regulatórias e sociais. As ferramentas de autoria distinguem-se tanto por suas funcionalidades como por suas características operacionais, que permeiam diversos ambientes de produção e exibição. Nesse contexto, as seguintes ferramentas foram analisadas: a)Adobe After Effects (ADOBE, 2010a); b)Adobe Flash (ADOBE, 2010b); c)Anime Studio (SMITH MICRO SOFTWARE, 2010); d)Blender (BLENDER FOUNDATION, 2010); e)Composer (PORTAL DO SOFTWARE BRASILEIRO, 2010); f)GIMP (THE GIMP TEAM, 2010); g)Inkscape (INKSCAPE, 2010); h)Ktoon (KTOON, 2010); i)NCL Eclipse (PUC-RIO, 2010); j)Synfig (THE SYNFIG TEAM, 2010); k)Wings3D (WINGS3D, 2010); l)LuaEdit (LUAEDIT, 2009); m)TextPad (HELIOS SOFTWARE SOLUTIONS, 2010); n)Sodipodi (GEEKNET, 2010); o)TVML Player (NHK, 2010); p)Pivot Stickfigure Animator (SOFTONIC INTERNATIONAL, 2010); q)Pencil (NAIDON, P.; CORRIERI, P., 2009); r)CrazyTalk (SOFTONIC INTERNATIONAL, 2010) e s)Stickman & Elemento (SVEN NILSEN, 2010). Para a criação de conteúdo multimídia, é necessária a escolha de uma linguagem apropriada e, segundo Burg (2009), os critérios para avaliação de um ambiente de autoria multimídia devem considerar: os tipos de tarefas a serem realizadas (criar figuras, sons e vídeos ou somente importar mídias e realizar a

34

composição); os tipos de mídias suportados (2D, 3D, bitmap, vetorial, áudio/vídeo codificado, interatividade); a interface (visual, integrada, linguagem de programação, padronizada); as características do conteúdo (tamanho, complexidade, meio de distribuição); e, também, o custo. A categorização proposta por Noll (2007) ressalta as dimensões significativas, descritas em Azana et al. (2008), para o desenvolvimento dos serviços de comunicação por meio da caracterização das mídias, do seu uso, de futuras utilizações e dos novos tipos de mídias. Noll cita que o usuário é muito sensível ao preço e que a variedade de opções aparece como a maior motivação para a compra em grande parte dos serviços. A velocidade da evolução tecnológica torna ainda mais difícil perceber e entender todas as tendências. Entretanto, existe o consenso de que a disponibilidade de largura de banda continuará crescendo e seu custo diminuindo, e as funcionalidades disponibilizadas também continuarão a aumentar. Entende-se que o consumidor é fator determinante no sucesso ou falha de produtos e serviços de comunicação (dessa forma, a observação das suas motivações ajuda a prognosticar as possibilidades de sucesso de um novo produto ou serviço de comunicação) e a tecnologia digital viabiliza a miniaturização dos dispositivos, bem como o aumento da capacidade de armazenamento e do poder de processamento, enquanto seu custo diminui. A partir da análise dos dados obtidos na pesquisa das fontes secundárias citadas, capturamos as variáveis relacionadas a uma ferramenta de autoria multimídia que agregam: as funcionalidades das ferramentas existentes no mercado e as características do ambiente operacional, bem como as tendências de evolução das mídias e de convergência das redes. Essas variáveis estão relacionadas na Tabela 1. A MIRV, representada na Tabela 2, foi preenchida mediante consenso dos especialistas autores deste artigo. Exemplo de preenchimento: a célula da linha 1 coluna 2 foi preenchida com o valor 4, indicando que o ambiente de execução exerce forte influência na variável nível de interatividade, pois pode inviabilizar ou dificultar a execução do conteúdo interativo por não atender ao tempo de resposta esperado e/ou apresentar baixa usabilidade na interface de entrada. Já a célula da linha 2 coluna 1 foi preenchida com 0, indicando que um conteúdo interativo não influencia o ambiente de execução. A aplicação do método MICMAC resultou na classificação apresentada na Figura 1, na qual se identificam, no setor 1, as variáveis influentes ou dominantes: número de dimensões (4) e tipo de

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

codificação (5) do conteúdo gerado pela ferramenta de autoria; no setor 2, as variáveis instáveis: ambiente de execução (1), animações (3) e API (7); no setor 3, as variáveis resultantes: quantidade de informações (6) e custo de desenvolvimento da ferramenta (10); no setor 4, as variáveis desconectadas: desenvolvedor do conteúdo (9) e controle de cópias (11) que, conforme metodologia, podem ser excluídas da análise. As variáveis nível de interatividade (2) e nível de controle do usuário (8) encontram-se em uma região de indefinição – o setor 5 – pois estão localizadas nos limiares entre dois setores. Nesse setor, a variável indefinida nível de interatividade (2) é classificada como variável instável. Já a variável nível de controle do usuário interfaces de (8) será analisada com as programação (Application Program Interface – API), por estar diretamente relacionada com interfaces disponibilizadas para a construção do conteúdo.

As variáveis-chave são as variáveis classificadas como instáveis e deverão ser estudadas com maior profundidade, pois alterações nessas variáveis podem tornar o sistema instável. São variáveis-chave: ambiente de execução, tipo de animação, APIs e nível de interatividade. As variáveis determinantes definem o comportamento do sistema. São elas que caracterizam o sistema ferramenta de autoria. São variáveis determinantes: número de dimensões do conteúdo gerado e tipo de codificação. As variáveis resultantes são as que possuem alto grau de dependência em relação às variáveis-chave e às determinantes, sendo uma resultante da escolha das características dessas duas variáveis. Constituem variáveis resultantes: quantidade de informações dos conteúdos gerados pela ferramenta e custo de desenvolvimento da ferramenta de autoria.

Tabela 1 Variáveis identificadas Variável Ambiente de execução

Tipo de conteúdo final gerado pela ferramenta de autoria

Características dos conteúdos API (linguagem computacional)

Descrição No ambiente de televisão digital, o padrão utilizado para gerar o conteúdo está diretamente relacionado ao meio de distribuição desse conteúdo (por exemplo: ambiente Ginga para TV terrestre e OpenTV para TV a cabo) Os conteúdos podem ser altamente interativos, Alto como, por exemplo, jogos de ação Conteúdos com taxa de interatividade média, como, Nível de Médio por exemplo, mensagens de texto interatividade Conteúdos com pouca interatividade, como, por Baixo exemplo, votações e plebiscitos Sem animações Tipo de Conteúdos gerados pelo modo tradicional (bitmaps) animação Conteúdos gerados pelo modo vetorial Número de Conteúdos 2D ou 3D dimensões Formato utilizado para a codificação de diferentes mídias (por Tipo de exemplo, pode seguir normas pré-estabelecidas, incluir codificação normas opcionais ou influenciar a evolução das mesmas Quantidade de quantidade de dados gerados no produto final: grande, média informações ou pequena

Linguagem computacional utilizada no conteúdo interativo gerado pela ferramenta de autoria: NCL, LUA, HTML, Java, C, entre outras Controle de retrocesso e avanço do vídeo/áudio; controle do layout de tela – tamanho e posição; entrada de dados: botões, lista, texto, entre outros Envolve, também, o custo de treinamento. O usuário desenvolvedor pode ser leigo, ter conhecimento computacional (ex. programação HTML) ou ter conhecimento especializado

Nível de controle do usuário Capacitação do usuário desenvolvedor Custo de desenvolvimento da Quantidade de esforço para implementar as características da ferramenta ferramenta Identificação dos conteúdos gerados pela ferramenta de autoria através da introdução de sinalizações, tais como marca d´água, nos conteúdos gerados. Controle de cópias Essa estratégia auxilia na criação de um modelo de negócios para a comercialização da ferramenta de autoria

Tabela 2 Identificação do inter-relacionamento entre as variáveis Variáveis ambiente de execução nível interatividade tipo de animação tipo de conteúdo nº de dimensões tipo de codificação características dos conteúdos quantidade de informações APIs (linguagem computacional) nível de controle do usuário capacitação do usuário desenvolvedor custo de desenvolvimento ferramenta controle de cópias ND – Nível de Dependência

1 0 1 0 2 0 3 0 4 4 5 0 6 4 7 2 8 0 9 0 10 0 11 ND 10 NI – Nível de

2 3 4 3 0 0 0 0 0 4 0 3 0 0 2 3 0 0 0 0 0 0 0 0 6 13 Influência

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010

4 2 0 0 0 0 0 0 0 0 0 0 2

5 0 0 3 0 0 0 0 0 0 0 0 3

6 4 0 3 3 1 0 2 0 0 0 1 13

7 4 1 4 3 2 0 0 2 1 0 0 17

8 4 1 0 0 0 0 3 0 0 0 0 8

9 1 2 0 2 0 0 2 0 0 0 0 7

10 1 0 4 3 2 2 1 2 2 0 1 17

11 0 0 3 3 0 1 0 0 0 0 0 7

NI 23 4 14 15 8 2 13 4 3 0 2

35


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

Depende do meio de transmissão a ser utilizado, como, por exemplo: radiodifusão (concessionárias de televisão ou serviços de satélite); fios de cobre ou de fibra óptica (operadoras de telefonia fixa); cabos coaxiais ou satélites de órbita baixa (TV por assinatura); ou, ainda, rede celular (operadoras de telefonia móvel).

programação e distribuição. Os anunciantes adquirem espaço para inserir a divulgação de seus produtos nas grades de programação, especialmente nas emissoras comerciais. Segundo a OECD (2008), a digitalização total da produção e da pós-produção influi na cadeia de valor, apresentando novos tipos de oportunidade de negócios e desafios, em que: a) a produção de imagens de qualidade mais alta estimula o avanço da tecnologia de exibição, atingindo diretamente os fabricantes de receptores digitais; b) os formatos digitais permitem maior flexibilidade na manipulação, no armazenamento e na distribuição, estimulando a criação de novos ambientes de produção, inclusive para aplicações interativas para TV digital; c) os conteúdos digitais são distribuídos de modo eficiente em redes de banda larga, para vendas on-line para consumidores individuais ou para exibição comercial. As análises de Jääskeläinen (2001), OECD (2008), Rios, Pataca e Marques (2005) e Schwalb (2004) identificaram os seguintes atores: produtores de conteúdo, provedores de software, fabricantes de receptores de TV digital, anunciantes, emissoras comerciais abertas, emissoras públicas, operadores de TV por assinatura, provedores de serviço Internet Protocol Television (IPTV) e o usuário final do conteúdo. A matriz de influência direta entre os atores, representada pela Tabela 3, foi construída em consenso pelos especialistas autores do artigo. Exemplo de preenchimento: a célula da linha 1 coluna 2 foi preenchida com o valor 3, indicando que o produtor de conteúdo exerce forte influência sobre o provedor de software, pois as produtoras de conteúdo, como clientes, geram requisitos e melhorias nos produtos dos provedores de software. Já a célula da linha 2 coluna 1 foi preenchida com o valor 1, indicando que a disponibilização de ferramentas que auxiliam na autoria apresenta alternativas interessantes para a produção de conteúdo e pode facilitar o aparecimento de novos produtores de conteúdo. O poder relativo de cada ator é apresentado na Tabela 4.

4.1.4

4.2 Questões estratégicas

Figura 1 Classificação das variáveis

4

Atores e questões estratégicas

4.1 Atores: identificação e poder relativo A cadeia de valor de serviços multimídia apresenta vários atores (JÄÄSKELÄINEN, 2001; RIOS, PATACA, MARQUES, 2005; SCHWALB, 2004). Essa cadeia compreende as quatro etapas citadas a seguir. 4.1.1 Produção conteúdo

e

pós-produção

de

Responsável pela geração de conteúdo. 4.1.2 Programação/empacotamento conteúdo

do

Envolve o mecanismo de disponibilização de conteúdo, com a identificação, o armazenamento e a localização do conteúdo. 4.1.3

Distribuição do conteúdo

Consumo do conteúdo

Usuários que acessam os conteúdos por meio de televisores integrados, set-top boxes ou terminais móveis e portáteis. Atualmente, as emissoras de radiodifusão, públicas ou comerciais, dominam os primeiros três estágios dessa cadeia: produção, programação e distribuição. Já as empresas de TV por assinatura atuam em dois estágios:

36

As questões estratégicas foram identificadas e classificadas em quatro categorias. 4.2.1 Ambiente de execução do conteúdo gerado Questão 1: identificar a disponibilidade de ambientes apropriados para a execução dos conteúdos gerados (dificuldade de se obter o

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

ambiente: comprar, montar, criar parcerias, entre outros). Questão 2: identificar a possibilidade de inovação nos ambientes para a execução dos conteúdos gerados (necessidade/possibilidade de sugerir alterações ou incrementos). Questão 3: identificar a existência de padrões abertos e/ou proprietários dominantes no

mercado. 4.2.2

APIs

Questão 4: identificar se as interfaces (linguagens) a serem utilizadas apresentam funcionalidades adequadas para a criação dos conteúdos interativos.

Tabela 3 Matriz de relacionamento dos atores Relacionamento de poder dos atores

A1

A2

A3

A4

A5

A6

A7

A8

A9

Nível influência

Prov.Conteúdo

A1

0

3

1

1

0

0

0

0

0

5

Prov. Softtware

A2

1

0

1

0

0

0

0

0

0

2

Fab.Recep.

A3

2

2

0

0

0

0

0

0

0

4

Anunciantes

A4

2

1

0

0

3

1

1

1

0

9

E.ComAberta

A5

3

1

0

0

0

1

1

1

0

7

E.Públicas

A6

2

1

0

0

1

0

1

0

0

5

Op.TVAssin.

A7

2

1

2

0

2

0

0

1

0

8

Prov.IPTV

A8

2

1

3

0

1

0

2

0

0

9

Usuário

A9

2

2

2

3

3

1

3

3

0

19

Nível dependência

16

12

9

4

10

3

8

6

0

Tabela 4 Poder de influência dos atores Nível de influência

Indicador de influência

Nível de dependência

Inverso da dependência

Poder de influência

Poder de influência ponderado

Prov.Conteúdo

19

0,05

102

0,16

0,008

0,099

Prov.SW

9

0,02

97

0,08

0,002

0,025

Fab.Recep.

14

0,04

62

0,18

0,007

0,086

Anunciantes

55

0,15

16

0,77

0,112

1,418

E.ComAberta

39

0,10

37

0,51

0,053

0,666

E.Públicas

27

0,07

14

0,66

0,047

0,592

Op.TVAssin.

43

0,11

29

0,60

0,068

0,855

Prov.IPTV

47

0,12

0,084

Usuário

126

0,33

22 0

0,68 1,00

0,332

1,065 4,193

Atores

Tabela 5 Posicionamento resultante e peso Am biente de execução

Nível inter.

APIs

Animação

Q1

Q2

Q3

Q4

Q5

Q6

Q7

Q8

Prov.Conteúdo

A1

0,10

0,10

0,10

0,10

0,10

0,10

0,10

0,10

Prov.SW

A2

0,03

0,03

0,03

0,03

0,03

0,03

0,03

0,03

Fab.Recep.

A3

0,09

-0,09

0,09

-0,09

0,00

0,00

-0,09

-0,09

Anunciantes

A4

1,42

0,00

0,00

0,00

0,00

0,00

0,00

0,00

E.ComAberta

A5

0,67

0,00

0,67

-0,67

-0,67

-0,67

0,00

0,00

E.Públicas

A6

0,59

0,00

0,59

0,00

0,00

0,00

0,00

0,00

Op.TVAssin.

A7

0,85

0,00

0,85

0,00

0,00

-0,85

-0,85

-0,85

Prov.IPTV

A8

1,07

0,00

1,07

0,00

0,00

-1,07

-1,07

-1,07

Usuário

A9

4,19

0,00

0,00

0,00

4,19

4,19

-4,19

-4,19

Total +

9,01

0,13

3,40

0,13

4,32

4,32

0,13

0,13

Total -

0,00

-0,09

0,00

-0,76

-0,67

-2,59

-6,20

-6,20

Posicionamento resultante

9,01

0,22

3,40

0,89

4,99

6,91

6,33

6,33

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010

37


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

Questão 5: identificar a existência ou possibilidade de criar interfaces para interação com o usuário final (botões, lista, caixa de texto, entre outros). 4.2.3

Nível de interatividade

Questão 6: classificar os recursos de interatividade necessários (artefatos especiais para entrada de dados e processamento). 4.2.4

Animação

Questões 7 e 8: identificar as características de armazenamento, processamento e apresentação das animações. A matriz que representa o posicionamento dos atores em relação às questões estratégicas foi construída em consenso pelos especialistas autores do artigo. Esse posicionamento foi ponderado pelo poder de influência ponderado dos atores (Tabela 4), gerando a matriz ilustrada na Tabela 5. Na Tabela 5, as linhas Total + e Total representam, respectivamente, os posicionamentos favoráveis e os posicionamentos contrários já ponderados pelo poder que os atores exercem no sistema. A soma algébrica dos posicionamentos dos atores indica que: a) a questão 1 “Disponibilidade de ambiente” obteve resultado positivo e deverá receber uma avaliação melhor quanto maior for a facilidade para adquirir o ambiente; b) a questão 2 “Possibilidade de inovação” obteve resultado positivo e deverá receber uma avaliação melhor quanto maior for a facilidade para alterar o padrão; c) a questão 3 “Padrões estabelecidos” obteve resultado positivo e deverá receber uma avaliação melhor quanto maior for a maturidade do padrão aberto; d) a questão 4 “Inovação nas APIs” obteve resultado negativo e deverá receber uma avaliação melhor quanto maior for a aderência das APIs padronizadas às necessidades da ferramenta, ou seja, quanto maior for a necessidade de inovação nas APIs, menor será a nota; e) a questão 5 “Mecanismos de interação com o usuário” obteve resultado positivo, indicando que quanto maior o número de mecanismos ou funcionalidades (botões, lista, caixa de texto, entre outros) que facilitem a interação com o usuário final, melhor será a avaliação; f) a questão 6 “Recursos de interatividade”

obteve resultado positivo, indicando que quanto maior a facilidade para suportar artefatos para a interatividade do usuário final, melhor será a avaliação; g) a questão 7 “Armazenamento” obteve resultado negativo e deverá receber uma avaliação melhor quanto menor for o volume de armazenamento necessário; h) a questão 8 “Processamento” obteve resultado negativo e deverá receber uma avaliação melhor quanto menor for a capacidade de processamento necessário. A linha “Posicionamento resultante” da Tabela 5 representa a soma modular dos posicionamentos dos atores, cujo valor inteiro (linha Peso) representa o peso das questões estratégicas na classificação dos cenários mais adequados para a ferramenta de autoria. 5

Análise dos cenários

As variáveis-chave ambiente de execução, API, animação e nível de interatividade orientam a identificação dos subsistemas e das configurações ou opções tecnológicas. Os subsistemas identificados que descrevem o sistema ferramenta de autoria são: a) plataforma de distribuição – mecanismos utilizados para a distribuição de conteúdo de TV digital interativa; b) plataforma de execução dos conteúdos interativos – mecanismos que compõem o ambiente onde os conteúdos interativos são executados, os quais estão fortemente relacionados com os mecanismos de distribuição. A identificação dos cenários é realizada em duas etapas: na primeira, identificam-se os cenários possíveis segundo as plataformas de distribuição. A partir de cada um desses cenários; na segunda, são identificados os possíveis ambientes para as plataformas de execução, uma vez que, para o ambiente de TV digital, essas plataformas são fortemente conectadas. Menezes, Osório e Pataca (2008) identificam as seguintes plataformas de distribuição: terrestre, DTH (satélite), cabo, MMDS (micro-ondas) e IPTV. Com base no levantamento setorial de TV por assinatura, realizado pela Associação Brasileira de TV por Assinatura (ABTA) e pelo Sindicato Nacional das Empresas Operadoras de Sistemas de Televisão por Assinatura (SETA)1, restringiremos nossa análise às seguintes plataformas: plataforma de distribuição terrestre,

________________________________ 1

A base de assinantes por tecnologia apresenta a seguinte distribuição: cabo 62%, DTH 32% e MMDS 6%. O relatório do primeiro trimestre de 2008 aponta que a base total de assinantes de TV paga cresceu 13% e o número de usuários de Internet com conexão em banda larga cresceu 45%.

38

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

que congrega o maior número de usuários; plataforma de distribuição por cabo, que apresenta o maior número de usuários de televisão por assinatura; e plataforma de IPTV, que apresenta grande potencial de crescimento. As plataformas de execução, para a análise do sistema ferramenta de autoria, têm como característica básica a API a ser utilizada pelo conteúdo interativo. Essa interface permite que os conteúdos interativos independam das idiossincrasias do hardware e do software básico da plataforma de execução. O grau de interatividade dos conteúdos digitais depende da capacidade do ambiente de execução, da usabilidade dos mecanismos de interação e da existência de um canal de comunicação para troca de dados entre o usuário final e o provedor do serviço. Para a análise da ferramenta de autoria, temos os seguintes possíveis cenários interativos: conteúdos altamente interativos, como jogos de ação; conteúdos com taxa de interatividade média, como mensagens de texto; e conteúdos com pouca interatividade, como votações e plebiscitos. A possibilidade de construir animações apresenta as seguintes opções tecnológicas: não suportar animações; suportar animações tradicionais (bitmap); e suportar animações vetoriais. A seguir, analisaremos os cenários advindos das plataformas de distribuição selecionadas. 5.1 Plataforma de distribuição terrestre A transmissão de TV digital terrestre no Brasil é regida por normas especificadas pelo Fórum do Sistema Brasileiro de TV Digital Terrestre e publicadas pela Associação Brasileira de Normas Técnicas (ABNT). A plataforma de distribuição terrestre não possui canal de retorno inerente. Assim, aplicações interativas que utilizam comunicação do usuário final com o provedor de serviços necessitam de canais de comunicação externos. A codificação de dados é padronizada pela norma ABNT-NBR 15606. Essa norma preconiza a utilização de APIs nas seguintes linguagens: Java, NCL com scripts LUA, XHTML e ECMAScript (perfil básico do BML). As opções tecnológicas para plataformas de execução são o Ginga-NCL e o Ginga-J: a) o Ginga-NCL é uma plataforma para a apresentação de aplicações interativas baseada em interfaces padronizadas para as linguagens NCL, scripts LUA e XHTML; b) o Ginga-J é uma plataforma de execução de aplicações interativas baseada em interfaces padronizadas utilizando a linguagem Java. Além das

bibliotecas-padrão da linguagem, incorpora o JavaTV e o JMF. 5.2 Plataforma de distribuição por cabo A plataforma de distribuição por cabo é o serviço de TV por assinatura mais utilizado no Brasil e é regida pela Lei do Cabo, que não padroniza a plataforma de execução. Nesse cenário, o aparelho receptor é de responsabilidade do provedor do serviço que “escolhe” a tecnologia a ser implantada. Na transmissão digitalizada, a comunicação bidirecional é inerente à tecnologia. A opção tecnológica, no mercado brasileiro, para a plataforma de execução é o OpenTV, um middleware proprietário. A linguagem de programação C-like é utilizada no desenvolvimento das aplicações. O ambiente de construção compila tais aplicações gerando códigos intermediários (bytecodes) que são interpretados pelo middleware OpenTV nos receptores. É uma solução fechada, que não disponibiliza a interface para a criação de novas aplicações fora do seu ambiente proprietário. 5.3 Plataforma de distribuição por IP (IPTV) A plataforma de distribuição de TV digital no Brasil é um serviço em fase inicial de implantação e essas iniciativas estão sendo comercialmente alavancadas por operadoras de telefonia. Essa tecnologia fornece conexão bidirecional, o que favorece a criação de aplicações interativas, uma vez que não apresenta restrições para troca de informações entre o usuário final e o provedor da aplicação. As plataformas IPTV para aplicações multimídia apresentam soluções proprietárias, cujas interfaces são também proprietárias (como, por exemplo, a da Microsoft), e soluções com interfaces abertas (como a da CISCO-ISDP). Existe um esforço da International Telecommunication Union (ITU) para a padronização dessa plataforma, mas esta ainda não foi consolidada. 5.4 Avaliação dos cenários Da combinação das opções tecnológicas, foram obtidos 40 cenários, como mostra a Tabela 6, nos quais os pesos de cada questão estratégica são os valores obtidos na Tabela 5. As células da Tabela 6 foram preenchidas em consenso pelos especialistas autores deste artigo. Exemplo de preenchimento: para o ambiente de execução, os cenários são analisados segundo a facilidade de se obter o ambiente de distribuição e de execução, por exemplo: trabalhar com padrões abertos, facilidade de aquisição no mercado, diferentes fabricantes, entre outros. Assim, os cenários de distribuição de TV digital terrestre, com interface para aplicações GingaNCL, receberam avaliação 4, por seguirem

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010

39


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

padrões abertos publicados e ambiente de emulação disponível sem custo, enquanto os cenários com interface para aplicações Ginga-J receberam avaliação 2, por seguirem padrões abertos ainda não publicados. A Tabela 6 mostra ainda que os cenários com animação vetorial apresentaram melhor avaliação que os cenários com animação tradicional (bitmap) e que os cenários com níveis baixos e médios de interatividade não apresentaram diferenças significativas na avaliação. O cenário mais bem avaliado é o da plataforma de transmissão terrestre, que suporta conteúdos com níveis baixo e médio de interatividade e sem animações. A segunda melhor avaliação foi a do cenário de distribuição IPTV com níveis de interatividade baixo e médio e sem animações. Com os cenários classificados, devemos analisar as incertezas que envolvem cada um deles e, assim, identificar a melhor opção diante de nossas expectativas frente ao futuro. 6

Análise de riscos

Nesta etapa utilizamos a ferramenta Vanguard DecisionPro 3.012 para a construção e análise da árvore de decisão. 6.1 Construção da árvore de decisão A Figura 2 representa a árvore de decisão para uma ferramenta de autoria para TV digital, em que os ramos da primeira hierarquia mapeiam as plataformas de distribuição analisadas, com as seguintes probabilidades: a) 50% para a distribuição terrestre, pois representa a rede de distribuição de televisão com maior poder de penetração; b) 35% para a distribuição IPTV, que apresenta um grande potencial de

crescimento; e c) 15% para a distribuição por cabo, que apresenta uma taxa de crescimento baixa em relação às outras duas. Os ramos da segunda hierarquia mapeiam as plataformas de execução, com as seguintes probabilidades: a) plataforma de distribuição terrestre – 60% para o Ginga-NCL, por já ter norma publicada e produto disponível no mercado – 40% para o Ginga-J, por ainda estar na fase de normatização b) plataforma de distribuição por cabo – 100% para o OpenTV, por sua utilização em operadora brasileira com grande penetração na rede de televisão por cabo c) plataforma de distribuição por IP – 70% para a interface aberta, por permitir a participação de vários atores, potencializando sua utilização – 30% para interfaces proprietárias As hierarquias seguintes se desdobram de modo similar para todos os cenários analisados, com as seguintes probabilidades: a) grau de interatividade – 30% para conteúdos interativos que utilizam pouca largura de banda para troca de informações individualizadas – 60% para conteúdos interativos que utilizam largura de banda um pouco maior, apostando no fato de que a maioria das conexões já disponibilizarão dezenas de quilobytes por segundo – 10% para conteúdos interativos que utilizam largura de banda da ordem de megabytes por segundo

Figura 2 Árvore de decisão ______________________________________ 2 Vanguard Software Corporation. DecisionPro 3.0.

40

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

b) tipo de animação – 20% para ferramentas sem animação, mapeando o risco da concorrência de ferramentas já existentes no mercado com esse perfil – 30% para animação bitmap, por não possibilitar a criação de animações totalmente interativas – 50% para animações vetoriais 6.2 Definição das opções estratégicas A partir da árvore de decisão construída, a ferramenta DecisionPro nos fornece a probabilidade de cada cenário analisado. O valor de cada cenário, obtido no item 5.4 e mostrado na Tabela 6, é multiplicado pela probabilidade

calculada e o resultado é mostrado na Tabela 7, que apresenta os cenários classificados em ordem decrescente. A análise dos resultados mostra que as melhores opções estratégicas são: a) cenário A6: distribuição terrestre, utilizando plataforma de execução Ginga-NCL, conteúdos interativos com troca de informações individualizadas da ordem de dezenas de quilobytes por segundo e animação vetorial; b) cenário C6: distribuição por IP, utilizando plataforma de execução com interface aberta, conteúdos interativos com troca de informações individualizadas da ordem de dezenas de quilobytes por segundo e animação vetorial;

Tabela 6 Opções estratégicas

Tabela 7 Avaliação dos cenários Cenários

Objetivos Peso

9

3

1

5

7

6

6

A6 A15

Terrestre

média alta

4

4

2

2

4

4

124

A4

bitmap

A2

4

4

4

2

2

1

2

94

C5

vetorial A3

4

4

3

2

2

4

1

105

B6

baixa média alta

média

baixa

alta

média

baixa

alta

GINGA-J Aberta

A4

4

4

4

2

2

4

4

124

bitmap

A5

4

4

4

2

2

1

2

94

baixa média

C3 C4

vetorial A6

4

4

3

2

2

4

1

105

bitmap

A8

4

4

3

2

1

1

2

86

A14

vetorial A9

4

4

3

2

1

4

1

98

A12

A10

2

2

4

4

2

4

4

110

A13

bitmap A11

2

2

4

4

2

1

2

80

A2

vetorial A12

2

2

4

4

2

4

1

92

C14

A13

2

2

4

4

2

4

4

110

bitmap A14

2

2

4

4

2

1

2

80

vetorial A15

2

2

4

4

2

4

1

92

bitmap A17

2

2

4

4

1

1

2

73

C2

vetorial A18

2

2

4

4

1

4

1

85

A9

A1 B5

sem

B1

0

1

4

4

4

4

4

103

B4

bitmap

B2

0

1

4

4

4

1

2

73

C1

vetorial

B3

0

1

0

4

4

4

1

81

B3

sem

B4

0

1

4

4

4

4

4

103

bitmap

B5

0

1

4

4

4

1

2

73

C8 A11

vetorial

B6

0

1

0

4

4

4

1

81

bitmap

B8

0

1

0

4

3

1

2

62

A10

vetorial

B9

0

1

0

4

3

4

1

74

C13

sem

C1

2

2

4

3

4

4

4

119

C12

bitmap

C2

2

2

4

3

4

1

2

89

C11

vetorial

C3

2

2

3

3

4

4

1

100

A18

sem

C4

2

2

4

3

4

4

4

119

bitmap

C5

2

2

4

3

4

1

2

89

B2 A8

vetorial

C6

2

2

3

3

4

4

1

100

bitmap

C7

2

2

4

3

3

1

2

82

B1

vetorial

C8

2

2

3

3

3

4

1

93

B9

sem

C9

0

1

4

3

4

4

4

98

C7

bitmap C10

0

1

4

3

4

1

2

68

C10

vetorial C11 sem

alta

Proprietária

A5 A3

sem

sem

IPTV

Total

processamento

4

identificação dos cenários ambiente de execução padrões estabelecidos inovação nas APIs interação com usuário recurso de interatividade A1

animação sem

sem

OpenTV

Cabo

Cenários

armazenamento

GINGA- NCL

baixa

plataforma de distribuição plataforma de execução nível de interatividade

C6

0

1

0

3

4

4

1

76

C9

C12

0

1

4

3

4

4

4

98

A17

bitmap C13

0

1

4

3

4

1

2

68

vetorial C14

0

1

0

3

4

4

1

76

bitmap C15

0

1

0

3

3

1

2

57

vetorial C16

0

1

0

3

3

4

1

69

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010

C16 B8 C15

Avaliação Probabilidade Classificação 105 9,0% 9,450 100 7,3% 7,300 92 6,0% 5,520 94 5,4% 5,076 105 4,5% 4,725 124 3,6% 4,464 89 4,4% 3,916 81 4,6% 3,726 100 3,7% 3,700 119 2,9% 3,451 80 3,6% 2,880 92 3,0% 2,760 110 2,4% 2,640 94 2,7% 2,538 76 3,1% 2,356 124 1,8% 2,232 73 2,7% 1,971 89 2,2% 1,958 98 1,9% 1,862 103 1,8% 1,854 119 1,5% 1,785 81 2,2% 1,782 93 1,6% 1,488 80 1,8% 1,440 110 1,2% 1,320 68 1,9% 1,292 98 1,3% 1,274 76 1,6% 1,216 85 1,3% 1,105 73 1,4% 1,022 86 1,1% 0,946 103 0,9% 0,927 74 1,0% 0,740 82 0,9% 0,738 68 0,9% 0,612 98 0,6% 0,588 73 0,7% 0,511 69 0,7% 0,483 62 0,5% 0,310 57 0,4% 0,228

41


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

c) cenário A15: distribuição terrestre, com plataforma de execução Ginga-J, conteúdos interativos com troca de informações individualizadas da ordem de dezenas de quilobytes por segundo e animação vetorial.

Conclusão Os mecanismos sistemáticos propostos pela metodologia permitiram que nossas avaliações subjetivas fossem compartilhadas. Com a atribuição de um valor numérico para o preenchimento das matrizes, transformamos a avaliação subjetiva em informação objetiva, de tal modo que, através de reflexão, discussão e consenso, foi possível construir uma compreensão lógica comum do valor a ser atribuído. A metodologia emprega uma estruturação de como abordar o problema, dos aspectos a serem analisados e dos mecanismos a serem utilizados. Essa estruturação orientou a troca de conhecimento, conceitos e ideias sobre o assunto avaliado e, com isso, permitiu a construção coerente de uma linguagem comum para a reflexão de como projetamos ou do que almejamos para o futuro. A aplicação da metodologia permitiu, por meio do entendimento e da classificação das variáveis relevantes, bem como da análise e do posicionamento dos atores, traçar cenários possíveis e avaliar os riscos na escolha de cada um deles. Além disso, por meio da classificação das ideias, foi possível entender o problema, mapear e tratar o conhecimento, de modo a auxiliar uma tomada de decisão. O cenário escolhido foi o da distribuição terrestre, e a plataforma de execução utilizada foi a GingaNCL, que suporta conteúdos interativos com troca de informações individualizadas da ordem de dezenas de quilobytes por segundo e animação vetorial. A partir dessa escolha, criamos um caminho de evolução (roadmap) para a ferramenta de autoria e sua especificação funcional.

Referências ADOBE SYSTEMS INCORPORATED. Adobe After Effects CS5. 2010a. Disponível em: <http:// www.adobe.com/br/products/aftereffects>. ADOBE SYSTEMS INCORPORATED. Adobe Flash Professional CS5. 2010b. Disponível em: < http://www.adobe.com/br/products/flash/>. AZANA, N. T.; PATACA, D. M.; RICARTE, I. L. Metodologia para identificação de variáveis e cenários que influenciam o software embarcado em receptores de TV digital. Cadernos CPqD Tecnologia, Campinas, v. 3, n. 2, p. 17-31, jul./dez. 2007.

42

AZANA, N. T. et al. Ferramenta de Autoria – Visão do Contexto. PD.30.12.34A.0009A/RT-01-AA. Campinas, 2008. (relatório FUNTTEL). BLENDER FOUNDATION. Blender 2.55. 2010. Disponível em: <http://www.blender.org>. BURG, J. The Science of Digital Media. USA: Pearson Prentice Hall, 2009. ISBN-13: 978-0-13-243580-2. GEEKNET (SOURCEFORGE). Sodipodi. 2010. Disponível em: <http://sourceforge.net/projects/sodipodi/>. GODET, M. From Anticipation to Action: A Handbook of Strategic Prospective. Vendôme, France: UNESCO Publishing, 1994. ISBN 92-3-102832-4. ______. A "Caixa de Ferramentas" da Prospectiva Estratégica. Tradução e revisão técnica Júlio Dias e Pedro Ramalhete. Cadernos do CEPES. 1997. Disponível em: <http://www.idestur.org.br/download/2008061509 5245.pdf>. Acesso em: 14 ago. 2006. ______. The Art of Scenarios and Strategic Planning: tools and pitfalls. Technological Forecasting and Social Change, New York, USA, v. 65, n. 1, p. 3-22, 2000. HELIOS SOFTWARE SOLUTIONS. TextPad. 2010. Disponível em: <http://www.textpad.com/add-ons/synh2m.html>. HUGHES, J.; LANG, K. Transmutability: Digital Descontextualization, Manipulation, and Recontextualization as a New Source of Value in the Production and Consumption of Culture Products. In: HAWAII INTERNATIONAL CONFERENCE ON SYSTEM SCIENCES, 39., 2006, EUA. Electronic proceedings... Disponível em: <http://www.computer.org/portal/web/csdl/doi/10. 1109/HICSS.2006.511>. Acesso em: 1o nov. 2007. INKSCAPE. Inkscape. 2010. Disponível em: <http://www.inkscape.org/>. JÄÄSKELÄINEN, K. Strategic Questions in the Development of Interactive Television Programs. Espoo, Finland: University of Art and Design Helsink, A 31 and ILMARI design publications, 2001. ISBN 951-558-071-4. JENKIS, H. Cultura da Convergência. São Paulo: Aleph, 2008. ISBN 978-85-7657-063-9. KTOON. Ktoon. 2010. <http://ktoon.toonka.com/>.

Disponível

em:

LUAEDIT. LuaEdit. 2004-2009. Disponível em: <http://www.luaedit.org/>. MENEZES, E.; OSORIO, A. F.; PATACA, D. M.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010


Avaliação estratégica para a criação de uma ferramenta de autoria para TV digital

Análise de demanda para TV digital interativa. PD.30.12.34A.0011A/RT-02-AA. Campinas, 2008. (relatório FUNTTEL). NAIDON, P.; CORRIERI, P. Pencil. 2006-2009. Disponível em: <http://www.lesstooges.org/pascal/pencil>. NHK SCIENCE AND TECHNICAL RESEARCH LABORATORIES. TVML Player. 2010. Disponível em: <http://www.nhk.or.jp/strl/tvml/english/player2/ind ex.html>. NOLL, A. M. The Evolution of Media. Plymouth, UK: Rowman & Littlefield Publishers, Inc., 2007. ISBN-13: 978-0-7425-5481-8. ORGANISATION FOR ECONOMIC COOPERATION AND DEVELOPMENT (OECD). Remaking the Movies: Digital Content and the Evolution of the Film and Video Industries. Paris, France: OECD Publishing, 2008. ISBN 978-92-64-04329-9. PORTAL DO SOFTWARE BRASILEIRO. Composer. 2010. Disponível em: <http://www.softwarepublico.gov.br/dotlrn/clubs/gi nga/.>. PUC-RIO, UFB. Laboratório de Sistemas Avançados da Web. NCL Eclipse. 2009-2010. Disponível em: <http://www.laws.deinf.ufma.br/~ncleclipse/>.

RIOS, J. M.; PATACA, D. M.; MARQUES, M. C. Panorama Mundial de Modelos de Implantação e Exploração. CPqD, 2005. (relatório do Projeto SBTVD). SCHWALB, E. M. iTV Handbook: Technologies and Standards. USA: Prentice Hall, 2004. ISBN 0-13-100312-7. SMITH MICRO SOFTWARE. Anime Studio Pro 7. 2010. Disponível em: <http://anime.smithmicro.com/index_pro.php>. SOFTONIC INTERNATIONAL. CrazyTalk. 1997-2010. Disponível em: <http://crazytalk.softonic.com.br/download>. SOFTONIC INTERNATIONAL.Pivot-Stickfigure Animator. 1997-2010. Disponível em: <http://pivot-stickfigure-animator.softonic.com.br/ >. SVEN NILSEN. Stickman & Elemento. 2010. Disponível em: <http://www.stickmananimation.com>. THE GIMP TEAM. Gimp 2.6. 2001-2010. Disponível em: <http://www.gimp.org/>. THE SYNFIG TEAM. Synfig. 2010. Disponível em: <http://www.synfig.org>. WINGS3D. Wing3D. 2010. <http://www.wings3d.com.br/>.

Disponível

em:

Abstract This paper presents a methodology based on prospective scenarios which identifies the issues involved in a decision making of fundamental requirements to develop an authoring tool for digital TV. Possible scenarios and risks involved in each of them are identified by understanding and classifying the relevant variables and analyzing the actor's roles. This methodology has identified forty possible scenarios. The strategic analysis, carried out by using the decision tree supported by DecisionPro application, has indicated the terrestrial platform distribution and IPTV, which support vectorial animation and presents interactive contents with average rate to exchange individualized data between the user and the server. Applying the presented methodology systematically allows to understand the problem by classifying the ideas in such a way that it enables its mapping and treatment. It helps indicate the main requirements to create an authoring tool that meets the actor's needs. Key words: Authoring tool. Strategic prospective. Digital television. Multimedia content. Decision making.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 31-44, jan./jun. 2010

43



Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet* Vinícius Garcia de Oliveira**, Vinícius Geraldo Félix, Marcos Rogério Salvador, Nelson Luís Saldanha da Fonseca Este trabalho propõe o uso de bloom filters para o encaminhamento de pacotes em redes metro Ethernet. Para tanto, o bloom filter proposto é pequeno o suficiente para ser alocado no cabeçalho-padrão do protocolo Ethernet. Para que isso seja possível, dois novos mecanismos são introduzidos: o primeiro elimina caminhos que apresentam falsos positivos e o segundo objetiva recuperar os caminhos eliminados. Todas as ideias propostas neste trabalho são passíveis de implementação em componentes já disponíveis para comercialização, como demonstrado ao final. Ao mesmo tempo, a eficiência do sistema é comprovada por meio dos resultados de simulação. Palavras-chave: Bloom filter. Metro Ethernet. Endereçamento. Introdução Os nós das redes Ethernet estão se tornando cada vez mais complexos, apresentando alto custo e consumo de energia. Milhares de linhas de código e milhões de transistores são requeridos atualmente para cumprir a tarefa de migrar o Ethernet do cenário das redes locais para as redes metropolitanas. Depois de todos os esforços de padronização investidos por organizações tais como o IEEE (Institute of Electrical and Electronic Engineers), o IETF (Internet Engineering Task Force), o MEF (Metro Ethernet Forum) e a ITU (International Telecommunication Union) entre outras, é muito provável que o Ethernet se torne a tecnologia dominante também no cenário das redes metropolitanas nos próximos anos. Entretanto, toda a complexidade adicionada traz questões inevitáveis: seria o futuro do Ethernet tornar-se tão ou mais complexo do que as tecnologias concorrentes, como o SDH (Synchronous Digital Hierarchy) e o ATM (Asynchronous Transfer Mode)? Um dos principais pontos que tornaram o Ethernet a tecnologia dominante nas redes locais é sua simplicidade. Não seria esse também um fator importante para as redes Metro? O consumo de energia é um dos pontos mais preocupantes na pesquisa sobre redes de computadores. Os componentes de circuito integrado necessários para implementar todas as funções requeridas nas redes Metro Ethernet são grandes consumidores de energia. Seria possível imaginar uma nova geração de equipamentos que consumam menos energia? Todos os protocolos utilizados tornam difíceis a operação e o gerenciamento dos nós da rede. Seria possível reduzir os custos de operação,

administração e manutenção nas redes de próxima geração? Considerando essas questões, muitas ideias surgem com o propósito de conceber um novo paradigma de nó da rede. Por exemplo, o conceito de uma rede composta de nós, em que toda a inteligência se localiza fora do equipamento de transporte, é muito promissora. Uma das principais iniciativas nessa direção é o OpenFlow (MCKEOWN et al., 2008). Entretanto, mesmo nessa abordagem, o endereçamento do plano de dados é uma questão desafiadora. Deve a decisão de encaminhamento de pacotes ser realizada nó a nó? É possível evitar o uso de mecanismos complicados como o de aprendizagem automática de endereços e protocolos complexos como o OSPF (Open Shortest Path First)? Este artigo propõe o uso de bloom filters aplicados em campos-padrão do protocolo Ethernet para o encaminhamento de pacotes. Bloom filters são estruturas de dados probabilísticas e eficientes em termos de espaço. Com o uso de bloom filters, é possível carregar os endereços de todas as interfaces de rede pelas quais um pacote deve passar utilizando um número fixo de bits, independentemente do número de interfaces. Em contrapartida à eficiência espacial, os bloom filters possuem uma dada probabilidade de falsos positivos, como será explicado na Seção 1. A ideia do uso de bloom filters para esse fim é muito promissora (JOKELA et al., 2009). Entretanto, essa abordagem requer, em geral, longas sequências de bits, a fim de se obter uma baixa probabilidade de falsos positivos. Essas longas sequências não podem ser facilmente alocadas em um cabeçalho-padrão. A solução proposta neste artigo é o uso de um

*Este trabalho foi apresentado na 24th IEEE International Conference on Advanced Information Networking and Applications (AINA 2010), dentro do workshop Frontiers of Information Systems and Network Applications (FINA). **Autor a quem a correspondência deve ser dirigida: vgarcia@cpqd.com.br. Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

bloom filter muito mais curto, apropriado para o cabeçalho Ethernet, em conjunto com duas novas técnicas. A primeira técnica realiza o bloqueio de caminhos que apresentam falsos positivos. A segunda objetiva recuperar os caminhos bloqueados. O resultado é um mecanismo eficiente de encaminhamento de pacotes que pode ser implementado nos componentes de comutação já disponíveis no mercado, como será demonstrado ao final deste trabalho. De fato, essa solução requer apenas alguns dos recursos disponíveis nos atuais equipamentos. Por isso, um novo conceito de nó surge, apresentando custo e consumo reduzidos e operação mais fácil em comparação às soluções existentes atualmente. O restante do artigo é organizado da seguinte forma: a Seção 1 apresenta a teoria básica sobre bloom filters e algumas de suas aplicações em telecomunicações. A Seção 2 introduz a proposta de como aplicar o bloom filter em campos-padrão do cabeçalho Ethernet e as técnicas que visam a evitar e bloquear a ocorrência de falsos positivos. A Seção 3 apresenta os resultados de simulação. A Seção 4 mostra como a solução pode ser empregada em equipamentos e dispositivos disponíveis comercialmente. A Seção 5 encerra o trabalho com as conclusões e os trabalhos futuros. 1

Teoria básica sobre bloom filters e trabalhos relacionados

Bloom filters (BLOOM, 1970) são estruturas de dados que se mostram probabilísticas e eficientes em termos de espaço. São utilizados em testes cujo objetivo é verificar se um dado elemento é membro de um conjunto. As respostas desses testes são livres de falsos negativos, mas não de falsos positivos, que podem ocorrer com uma dada probabilidade. Basicamente, um bloom filter é uma sequência de bits que, em um primeiro momento, carregam o valor zero. Para se armazenar um elemento no bloom filter, aplicam-se a este funções do tipo hash. Cada função resultará em uma posição diferente de bit dentro da sequência. Cada bit apontado deverá ter seu valor alterado para 1. A Figura 1 ilustra o conceito. Elemento 1 K1

Elemento 2 K3

K2

K1

K3

K2

0 1 0 0 0 0 0 1 0 1 0 1 0 0 0 1 0

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

Figura 1 Ação de registro no bloom filter

No exemplo da figura apresentada, são aplicadas 1

três funções hash em dois elementos. É importante notar que a função K2 aplicada no elemento 1 e a função K1 aplicada no elemento 2 resultam na mesma saída – ambas apontam para o bit 7. Trata-se de uma situação perfeitamente normal, ou seja, um mesmo bit pode ser utilizado para representar mais de um elemento no conjunto. Essa característica faz do bloom filter uma estrutura de dados eficiente em termos de espaço. Entretanto, tal característica leva a dois problemas. O primeiro é o evento de falso positivo. Se o bloom filter estiver sobrecarregado, os bits que seriam utilizados por outro elemento que nunca foi registrado podem já conter o valor 1. Nesse caso, o teste sobre esse elemento resultará em um falso positivo. O segundo problema é que os elementos podem ser registrados, mas não removidos. Isso acontece em decorrência da impossibilidade de se remover um elemento sem o risco de interferir em outros elementos registrados. A probabilidade de se obter um falso positivo pode ser calculada por (1.1): m (1.1) − 0 , 48 

p≅e

n

onde p é a probabilidade de se obter um falso positivo, m é o número de bits do bloom filter e n, o número de elementos registrados. A expressão (1.1) considera a probabilidade de ocorrência de um falso positivo no caso da utilização de um número ótimo de funções hash. A estimativa desse número ótimo não é óbvia. Se utilizado um grande número de funções, a probabilidade de falso positivo tende a diminuir, uma vez que são necessários mais elementos para coincidir com todos os bits utilizados por um elemento. Ao mesmo tempo, a probabilidade de falso positivo também tende a aumentar porque mais bits estão sendo utilizados por um único elemento. No caso de se utilizar menos funções hash, a situação é oposta. A melhor relação é obtida através de (1.2): (1.2) m

k≅

n

ln 2

sendo k o número ótimo de funções hash, m o número de bits do bloom filter e n o número de elementos registrados1. O uso de bloom filters está se tornando cada vez mais comum em redes de computadores. Por exemplo, o popular Squid Web Proxy (2010) utiliza bloom filters para manter um índice do banco de dados das URLs dos vizinhos residentes em sua memória, em vez de manter a tabela completa, o que resulta em alta eficiência. Bloom filters também são aplicados em comunicações P2P (peer to peer).

Para uma explicação detalhada sobre a teoria de bloom filters, consulte Broder e Mitzenmacher (2003).

46

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

Nesse caso, um nó pode manter vários bloom filters, cada um contendo o índice que descreve o conteúdo armazenado em um nó vizinho. Outro uso interessante de bloom filters é proposto por Whitaker e Wetherall (2002). Em vez de se utilizar o campo TTL (time to live) no cabeçalho do protocolo IP para descartar um pacote em uma condição de loop – o que pode não ser o caso dependendo do tamanho da rede –, é sugerido o uso de um bloom filter para registrar os nós pelos quais o pacote passou. Se o pacote chegar até um nó que já foi registrado, isso indica claramente a condição de loop, podendo-se descartar o pacote sem maior receio. Na área de endereçamento, Jokela et al. (2009) propõem o uso de bloom filters para um novo mecanismo de encaminhamento de pacotes. Nessa proposta, cada interface física da rede possui um identificador único. O pacote é comutado pelos nós através de um bloom filter, adicionado nele próprio. Esse bloom filter contém todas as interfaces que compõem o caminho que o pacote deve seguir. Essa técnica recebeu o nome de in-packet bloom filter e apresenta várias vantagens. Por exemplo, o nó de núcleo da rede torna-se muito simples e não requer tabelas para o encaminhamento, apresentando menor custo e consumindo menos energia em comparação aos nós convencionais. Os bloom filters também são naturalmente eficientes para operações de multicast. Por carregarem um grupo de interface, não é necessário outro tipo de endereçamento para descrever o multicast, nem protocolos como o IGMP snooping para a inclusão e remoção de interfaces no grupo. Em termos de novas arquiteturas para o futuro da Internet (SPYROPOULOS; FDIDA; KIRKPATRICK, 2007), a proposta de encaminhamento com bloom filters é apropriada para o modelo de publisher/subscriber (EUGSTER et al., 2003), base para muitas das aplicações atuais, que são, em geral, desenvolvidas como um overlay. A solução discutida por Jokela et al. (2009) apresenta alguns problemas consideráveis. Por exemplo, o bloom filter proposto tem algo em torno de 248 bits. Bloom filters mais curtos, de 120 bits, são brevemente considerados, mas descartados em função da alta probabilidade de falsos positivos. Bloom filters de 248 bits não podem ser acomodados com facilidade em um cabeçalho-padrão. Torna-se necessário, então, procurar meios para a utilização de bloom filters menores. Outro problema está nos componentes que realizam a comutação. Jokela et al. (2009) afirmam que o nó de núcleo é simples; entretanto, é necessário o desenvolvimento de novos componentes de circuito integrado para suportar essa proposta de endereçamento e um

FPGA (Field Programmable Gate Array) é usado para a prova de conceito. O desenvolvimento de um novo ASIC (Application Specific Integrated Circuit) é uma tarefa extremamente custosa. Para obter sucesso, propostas de novos métodos devem ser passíveis de implementação nos componentes já disponíveis no mercado. Um último ponto é que não se considera, em maiores detalhes, como o bloom filter pode ser adicionado ao pacote. Assim, este artigo objetiva tornar a proposta de endereçamento com bloom filters possível. Como mostrado na Seção 2, é proposto o uso de um bloom filter de 108 bits, inserido em campos-padrão no cabeçalho Ethernet, em conjunto com duas novas técnicas de bloqueio e recuperação de caminhos com falsos positivos. Além disso, todas as ideias apresentadas são passíveis de implementação em componentes já disponíveis no mercado, como descrito na Seção 4. 2

Encaminhamento de pacotes e técnicas

Esta seção apresenta como o bloom filter, utilizado para o encaminhamento do pacote, pode ser adicionado ao cabeçalho. Além disso, as técnicas de bloqueio e recuperação de caminhos com falsos positivos são introduzidas. 2.1 Alocando o bloom campos-padrão do Ethernet

filter

em

O padrão 802.1ah (IEEE, 2008) estende o cabeçalho do quadro Ethernet com campos apropriados para que as operadoras de telecomunicações possam definir o endereçamento de sua própria rede sem interferir no pacote do cliente. A Figura 2 mostra o cabeçalho completo do quadro 802.1ah. As redes que utilizam a extensão 802.1ah requerem dois tipos distintos de nós: de borda e de núcleo. Os nós de borda são responsáveis pela adição dos campos referentes ao 802.1ah, determinando o endereçamento de um dado fluxo de pacotes no núcleo da rede. O fluxo de pacotes é caracterizado por uma combinação de fatores: a interface de ingresso, o endereço MAC do cliente, o ID da VLAN, entre outros. Já o nó de núcleo é responsável por encaminhar os pacotes baseando-se nos campos B-DA, B-SA e B-VID. A rede metropolitana é fortemente baseada em um sistema de gerência centralizado, que lida com os recursos da rede com o objetivo de atender às demandas dos clientes. Para tanto, o sistema de gerência necessita de informações precisas da rede, como a topologia física e a capacidade dos nós.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010

47


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

Figura 2 Quadro Ethernet IEEE 802.1ah-2008

A Figura 3 apresenta um típico cenário de rede Ethernet metropolitana. Nesse exemplo, o cliente 1 solicita uma conexão com o cliente 8. Para atender a essa demanda, um caminho é selecionado na rede. A seleção pode ocorrer de diferentes formas: manualmente, definindo-se explicitamente os nós e as interfaces que o fluxo de pacotes deve seguir; ou por meio de um algoritmo de gerenciamento de tráfego que irá considerar muitos fatores, tais como o nível de serviço acordado, a capacidade dos enlaces, o número de saltos, entre outros, a fim de selecionar o melhor caminho para essa demanda. 2

1

5

3

Nódenúcleo

2

4

3

Nódeborda Cliente

2 1

1

Sistemade Gerência

3 9

4

6

5

6 8 7

Caminho

9

4 5

8

7

Figura 3 Típico cenário de rede Metro Ethernet

Uma vez que o caminho é definido, o sistema de gerência configura o nó de borda número 2 para mapear os pacotes do cliente 1 em quadros do

48

tipo 802.1ah. A gerência também configura os nós de núcleo correspondentes para o encaminhamento dos pacotes nas interfaces definidas utilizando o endereçamento criado para esse fluxo. Por fim, o nó de borda número 5 é configurado para remover esses campos adicionais e entregar os pacotes para o cliente 8. O sistema de gerência acessa os nós através de uma rede de comunicação de dados que pode ser do tipo in-band, utilizando os recursos da própria rede, ou do tipo out-of-band, com recursos dedicados a esse fim. Essa típica alocação de caminho, descrita acima, possui diversos problemas que este artigo visa a tratar. Por exemplo, os nós de núcleo tratam do encaminhamento de milhares de fluxos de pacotes originados pelos nós de borda. Assim, eles devem ser capazes de armazenar todo o endereçamento desses fluxos localmente, o que demanda grandes tabelas de endereços. Isso faz com que os nós se tornem complexos, dado que eles precisam conter sofisticados mecanismos de procura em longas tabelas, mantendo, ao mesmo tempo, as altas taxas de transmissão de suas interfaces de rede. Isso se torna ainda mais crítico com o surgimento de interfaces operando a taxas de 40 e 100 Gb/s. Outro problema surge em decorrência do número de configurações necessárias na rede. Para cada novo fluxo de pacotes, todos os nós pelos quais o fluxo passa devem ser configurados explicitamente pelo plano de gerência. Isso resulta em um intervalo de tempo entre a solicitação do cliente e a prestação do serviço, o que pode não ser tolerável em certas aplicações. Considere o caso de uma rede sem fio em que os nós de borda sejam pontos de acesso conectados entre si através de uma rede cabeada composta por nós de núcleo. Se um cliente conectado a um nó de borda estiver em movimento e prestes a sair da célula atendida por esse ponto de acesso, uma operação de handoff para uma célula vizinha deve ser executada. Nesse caso, o caminho criado na rede deve ser desfeito e outro, com essa nova origem, deve ser criado. Imagine agora uma nova situação em que muitos clientes estejam em um trem de alta velocidade, todos originando e recebendo fluxos de pacotes. Se o trem deixa uma célula e entra em uma outra, muitas operações de handoff devem ser realizadas em um curto espaço de tempo, o que será traduzido em centenas de comandos ao longo dos nós de núcleo. Tal condição é extremamente difícil de ser administrada e, provavelmente, impraticável nesse tipo de rede. Problemas como esse podem ser solucionados com o uso de bloom filters no endereçamento da rede. Como demonstrado por Jokela et al. (2009), é definido um identificador único para cada interface na rede, sendo que o sistema de gerência contém, em seu banco de dados, todos

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

esses identificadores. Assim, quando um cliente solicita um caminho na rede, o sistema de gerência define qual é o melhor caminho para atender a essa demanda, assim como descrito anteriormente, e gera um bloom filter contendo todos os identificadores de interfaces que o pacote deve seguir. Uma vez que o bloom filter é definido, o sistema de gerência configura o nó de borda para inseri-lo no cabeçalho do quadro por meio do preenchimento dos campos 802.1ah. Nos nós de núcleo, a única operação a ser realizada é um AND lógico entre o bloom filter e os identificadores das suas interfaces. A Seção 4 explica como essa operação pode ser implementada com o uso de componentes disponíveis comercialmente. Note que nenhuma configuração é requerida para que os nós de núcleo executem o encaminhamento. No que diz respeito aos identificadores das interfaces, determinar funções hash que gerem a melhor distribuição de bits 1 ao longo da sequência de bits é uma tarefa complexa (HAO; KODIALAM; LAKSHMAN, 2007). Por isso, foi adotada uma solução muito mais simples – o número de bits 1 é alocado na sequência de forma aleatória. A única regra a ser seguida é que o identificador gerado deve ser único. A definição de um número ótimo de bits 1 é discutida na Seção 3. Três campos 802.1ah foram escolhidos para carregar o bloom filter: B-DA, B-SA e B-VID. Mesmo sendo possível utilizar outros campos, como I-SID e PCP – o que permitiria utilizar um bloom filter maior –, foi decidido manter esses campos para as suas funções originais, como diferenciação entre fluxos e priorização de tráfego, que são igualmente importantes nessa rede. A Figura 4 mostra o mapeamento do bloom filter nesses três campos. O bloom filter proposto possui 108 bits e tende a apresentar uma alta probabilidade de falsos positivos. Tomando-se (1.1) e considerando-se uma rota de 12 interfaces, a probabilidade é maior do que 1%. Tal condição não é aceitável, pois certamente resultará em erros no encaminhamento, sendo que alguns desses erros podem resultar em loops que consumiriam toda a capacidade dos enlaces. 108 bits

Bloom Filter B-DA

48 bits

B-DA

B-VID

48 bits

12 bits

Figura 4 Mapeamento do bloom filter nos campos do cabeçalho Ethernet

Essa situação poderia ser amenizada aumentado-se o tamanho do bloom filter. Entretanto, como discutido anteriormente, bloom filters longos não podem ser facilmente alocados

no cabeçalho do pacote. A solução é encontrar meios de melhorar os resultados sem que isso consuma um número maior de bits. Para tanto, duas novas técnicas são apresentadas a seguir. 2.2 Técnica de bloqueio de caminhos Essa simples técnica é capaz de evitar todos os falsos positivos na rede. Diferentemente da maioria das aplicações com bloom filters, é possível prever todos os elementos que serão interrogados. Quando o sistema de gerência gera o bloom filter, ele já é capaz de predizer se haverá algum evento de falso positivo, dado que as informações de todos os identificadores das interfaces são conhecidas. Se o sistema de gerência obtiver um falso positivo nesse processo de verificação, ele simplesmente não instala o caminho na rede, reiniciando o processo à procura de um próximo caminho que seja livre de falsos positivos. Essa técnica garante que a rede seja livre de falsos positivos; entretanto, a relação custo-benefício se encontra na porcentagem de recursos que não serão utilizados. Em termos de retorno sobre investimento, trata-se de uma desvantagem considerável. Quanto maior a probabilidade de falsos positivos, maior a porcentagem de recursos subutilizados na rede. Para minimizar esses efeitos, é necessário reduzir a probabilidade de falsos positivos. Esse é o propósito da segunda técnica. 2.3 Técnica de recuperação de caminhos Seguindo-se a mesma ideia da primeira técnica, é importante notar que o sistema de gerência, além de ser capaz de determinar se um caminho irá ou não resultar em falso positivo, pode também identificar a interface que causa o erro. Nesse sentido, a técnica de recuperação de caminhos propõe reduzir, ainda mais, o tamanho do bloom filter com o objetivo de reservar alguns bits que serão utilizados para, explicitamente, avisar ao nó que o resultado positivo de uma dada interface na verdade é um erro, evitando que o quadro seja encaminhado para ela. Assim, as interfaces possuem, agora, um segundo identificador, chamado IBI (Identificador de Bloqueio de Interface). Entretanto, diferentemente do identificador da interface, o IBI não possui bits suficientes para ser único entre todas as interfaces na rede, o que gera falsos negativos. É possível que o bloqueio da interface de um nó que esteja causando o falso positivo impeça que o pacote seja genuinamente comutado para uma interface em outro nó. A solução é estender a primeira técnica, de modo que ela também verifique se o caminho escolhido possui algum evento de falso negativo. Não havendo, ele pode ser instalado na rede. Claramente, há uma relação custo-benefício

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010

49


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

entre o tamanho do bloom filter e o tamanho do campo IBI. Quanto menor o tamanho do bloom filter, maior será a ocorrência de falsos positivos. Por outro lado, quanto menor o tamanho do campo IBI, maior será a ocorrência de falsos negativos2. Por taxa de sucesso entende-se a porcentagem de caminhos que puderam ser criados na rede, ou seja, os caminhos em que não ocorreram falsos positivos, ou que puderam ser recuperados. Essa mesma ideia pode ser estendida para corrigir mais de uma interface. Campos adicionais de IBI podem ser adicionados, com o objetivo de recuperar mais interfaces que estariam causando mais de um falso positivo ao longo do caminho. Entretanto, isso tornará o bloom filter ainda menor, aumentando os eventos de falso positivo3. A suposta desvantagem dessa técnica é que a complexidade na implementação no nó de núcleo aumentará. Entretanto, como será mostrado na Seção 4, ela pode ser facilmente implementada em componentes já disponíveis para comercialização, apenas requerendo mais algumas entradas na tabela de encaminhamento. Porém, como é mostrado, para os casos de mais de um campo IBI, o uso de entradas aumenta exponencialmente. 3

Encontrando valores ótimos e resultados de simulação

Esta seção apresenta os resultados de simulação do trabalho. Os objetivos da simulação são: a) validar os conceitos apresentados na Seção 2; b) encontrar os valores ótimos dos parâmetros; e c) garantir que a proposta seja factível, como se apresenta a seguir. 3.1 Construindo e validando o simulador O simulador foi desenvolvido em linguagem C e compilado com ferramentas GNU. O simulador é executado em um computador com distribuição Ubuntu do Linux. O simulador permite a configuração dos seguintes parâmetros: número de nós, número de interfaces por nó, tamanho do bloom filter, número de bits 1 no identificador de interface, tamanho do campo IBI, número de campos IBI e variação no tamanho do caminho. O simulador registra os valores dos parâmetros de entrada e inicia gerando os nós com as suas interfaces. Para cada interface, o simulador cria um identificador único. Esse identificador possui o número de bits 1, definido pelo usuário. ________________________________________ 2 3

Os bits 1 são distribuídos aleatoriamente ao longo da sequência de bits. Se um identificador gerado coincidir com outro já criado, o simulador o descarta e gera um novo. O IBI é também criado aleatoriamente para cada interface; porém, a única regra, nesse caso, estipula que ele seja único entre as interfaces do mesmo nó, podendo ser repetido para interfaces de nós diferentes. A técnica de recuperação de caminho pode ser desabilitada pelo usuário; em outras palavras, o simulador pode ser programado para testar os caminhos com o objetivo de encontrar falsos positivos sem tentar recuperá-los ou pode ser configurado para tentar bloquear um dado número de interfaces que estejam causando falsos positivos ao longo do caminho. Esse número de interfaces é definido pelo número de campos IBI no quadro. Uma vez que os nós e as interfaces tenham sido propriamente criados, o simulador inicia o teste de caminhos com o objetivo de levantar as ocorrências de falsos positivos. Ele iniciará com o tamanho mínimo de caminho – ou seja, o caminho com o menor número de nós – e incrementará esse tamanho até atingir o número máximo de nós definido pelo usuário. Para cada tamanho de caminho, o simulador executa 10 mil tentativas. Cada tentativa consiste no seguinte processo: o simulador seleciona, aleatoriamente, N diferentes nós, em que N é o número de nós que constitui o caminho em questão. Feito isso, o simulador escolhe aleatoriamente uma interface em cada um dos N nós para constituir o caminho. O próximo passo é gerar o bloom filter com base nos identificadores das interfaces selecionadas e, finalmente, testar as demais interfaces dos nós nesse bloom filter, com o intuito de encontrar algum falso positivo. Se a técnica de recuperação de caminhos estiver habilitada e o número de interfaces que estiverem causando os falsos positivos for menor ou igual ao número de campos IBI, o algoritmo tentará corrigir os falsos positivos. Para tanto, o simulador testa se o IBI de cada uma dessas interfaces não existe entre as demais interfaces que compõem o caminho. Caso não exista, o caminho pode ser criado. Se existir, então ocorre um caso de insucesso. A curva exibida na Figura 5 demonstra que o simulador está operando como esperado. Tomando-se (1.2), o número ótimo de bits 1 no identificador da interface é 7,49, considerando-se um bloom filter de 108 bits e um caminho de 10 nós. O resultado da simulação indica que o melhor valor de bits 1 é 8, o que está muito próximo do valor teórico.

A Seção 3 discute o melhor valor entre esses dois campos, com o objetivo de alcançar a maior taxa de sucesso. A Seção 3 também discute um caso ótimo de campos IBI.

50

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

Figura 5 Taxa de sucesso em função de bits 1

3.2 Valores ótimos Para se obter as menores probabilidades de ocorrência de falsos positivos em um dado cenário, dois parâmetros devem ser analisados detalhadamente: o número de bits 1 no identificador das interfaces e o tamanho do campo IBI. Considerando-se o caso em que a técnica de recuperação de caminho está desabilitada, todos

os 108 bits são utilizados para o bloom filter. Tomando-se (1.2), o número ideal de bits 1 é função dos elementos registrados no bloom filter. Assim, o número de elementos representa o número de nós que compõem o caminho na rede. Por isso, o número ideal de bits 1 varia de acordo com o tamanho do caminho. Desse modo, torna-se necessário definir uma distribuição dos tamanhos de caminhos na rede. A Tabela 1 mostra a probabilidade de sucesso de um caminho, dado o número de bits 1 no identificador das interfaces. Um caso de sucesso significa um caminho que não possui falsos positivos. A Tabela 2 aplica esse resultado a uma distribuição de caminhos de tamanhos variados, que foi assumida como a distribuição existente na rede. Por exemplo, nessa distribuição, o tamanho máximo de um caminho é de 13 nós e a maior quantidade de caminhos é composta por 7 e 8 nós. Com esse experimento, pode-se concluir que o melhor número de bits 1 no cenário em questão é 7, com uma porcentagem de 85,23% de casos de sucesso.

Tabela 1 Probabilidade de sucesso versus o número de bits 1 Tamanho Caminho / bits 1

Tabela 2 Distribuição dos tamanhos de caminhos na rede

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010

51


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

Quando a técnica de bloqueio de interfaces é habilitada, é necessário encontrar o melhor tamanho para o bloom filter e para o campo IBI antes de se analisar o tamanho ideal de bits 1. A Figura 6 ilustra esse conceito. Deve-se mover a fronteira entre o campo IBI e o bloom filter, bit por bit, em um dado intervalo, e testar a probabilidade de sucesso em cada caso. Por exemplo, no caso de recuperação única, define-se um tamanho mínimo de 4 bits para o campo IBI, dado que isso possibilita um número máximo de 16 interfaces por nó e um tamanho máximo de 38 bits. Nesse caso, o sucesso é definido por todos os caminhos livres de falsos positivos e todos os que apresentaram falsos positivos, mas que puderam ter esses eventos corrigidos. O mesmo processo foi executado para os casos de recuperação dupla e tripla, considerando-se caminhos de diferentes tamanhos seguindo a mesma distribuição explicada anteriormente. A Tabela 3 sumariza os resultados ótimos encontrados. Tabela 3 Tamanho ótimo do bloom filter e do campo IBI Variante

Tam. Bloom Filter

Tam. IBI

Recuperação Única

100

8

Recuperação Dupla

92

8

Recuperação Tripla

84

8 108 bits

IBI

Recuperação única

Recuperação dupla

IBI

BloomFilter

IBI

A probabilidade de sucesso de cada variante é discutida em detalhes a seguir. Tabela 4 Números ótimos de bits 1 e probabilidade de sucesso Variante

Bits 1

Sucesso

Recuperação Desabilitada

7

85,25%

Recuperação Única

7

92,48%

Recuperação Dupla

6

94,02%

Recuperação Tripla

5

93,44%

3.3 Resultados de simulação Até agora, foram encontrados os valores ótimos de bits 1 nos identificadores de interfaces, do tamanho do bloom filter e do tamanho do campo IBI. O próximo passo é comparar cada variante com o objetivo de investigar qual delas apresenta melhor resultado para o cenário de rede descrito na Seção 2. O gráfico apresentado na Figura 7 compara as quatro variantes da técnica de recuperação de caminhos. Todas as opções de recuperação apresentam melhores resultados em comparação à variante que não utiliza essa técnica. Isso indica que a técnica de recuperação de caminhos de fato aumenta a probabilidade de sucesso. Esse resultado não é óbvio, uma vez que o uso da técnica de recuperação de caminhos diminui o tamanho do bloom filter, aumentando a chance de se obter falsos positivos. Sucesso

BloomFilter Recup.desab.

Recuperação tripla

IBI

IBI

IBI

Recup. única Recup. dupla

BloomFilter

Recup. tripla

Figura 6 Divisão dos bits entre o campo IBI e o bloom filter

25 nós de 10 interfaces

Para todas as três variantes, o melhor tamanho para o campo IBI é 8, o que resulta em 255 diferentes identificadores, dado que o primeiro é reservado para o caso em que nenhuma recuperação seja necessária. Pelo fato de o tamanho do bloom filter ser diferente em cada variante, o mesmo processo é realizado para cada caso de número de campos IBI. Obviamente, a configuração de nós e interfaces (técnica desabilitada) e a distribuição de tamanhos de caminhos dada na Tabela 2 devem ser mantidas. Os números ótimos de bits 1, ou seja, aqueles que apresentaram melhores probabilidades de sucesso para as variantes de recuperação única, dupla e tripla, são apresentados na Tabela 4.

52

Tamanho da rota (nós)

Figura 7 Probabilidade de sucesso versus tamanho do caminho

Entre as variantes que utilizam a técnica de recuperação, a de dupla recuperação apresentou os melhores resultados. Isso significa que o melhor resultado é alcançado com essa configuração. A partir desse ponto, aumentar o número de campos IBI apenas resultará em

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

degradação da taxa de sucesso. Isso ocorre porque o bloom filter se torna demasiadamente curto. Por isso, não é analisada qualquer variante acima daquela de recuperação tripla. O número de interfaces por nó é outro parâmetro importante que interfere enormemente no nível de sucesso da criação de caminhos. Foram considerados, até agora, nós com 10 interfaces. O gráfico da Figura 8 mostra uma comparação entre as variantes da técnica de recuperação e o número de interfaces por nó. Devido aos resultados anteriores, não é mais analisada a variante de recuperação tripla. A distribuição de caminhos é a mesma utilizada anteriormente. Como esperado, a probabilidade de sucesso decai quando o número de interfaces por nó aumenta, uma vez que o bloom filter sofre muito mais testes com outras interfaces. Ainda assim, a variação de recuperação dupla continua a apresentar os melhores resutados. É importante notar que, quanto mais se aumenta o número de interfaces por nó, mais significativa torna-se a utilização da técnica de recuperação de caminhos.

características componentes.

do

hardware

desses

4.1 Arquitetura do componente De maneira geral, um componente comutador Ethernet é composto pelos seguintes blocos: interpretador de cabeçalho, lógica de camada 2, lógica de camada 3, lógica genérica de campos (LGC) e gerenciador de tráfego. O interpretador de cabeçalho extrai do pacote os campos e os organiza para utilização nos blocos subsequentes. A lógica de camada 2 executa operações como mac-learning, flooding, classificação de VLANs, entre outras. A lógica de camada 3 implementa o encaminhamento IP, podendo se dar em sua versão 4 ou 6. O gerenciador de tráfego trata as filas dos pacotes com o objetivo de priorizar alguns fluxos perante os demais, descartando pacotes quando inevitável. A LGC suscita especial interesse e seu diagrama básico é mostrado na Figura 9. Lista de Campos Montador de Regra

Sucesso (%)

Registro de Comparação

TCAM

Lista de Ações

Figura 9 Diagrama de blocos da LGC Recup.desabilitada Recup. única Recup. dupla

Interf aces por nó

Figura 8 Taxa de sucesso versus número de interfaces por nó

Apesar de a variante de recuperação dupla apresentar resultados mais satisfatórios, estes não são muito melhores que os resultados da variante de recuperação única. Nesse caso, é possível que a variante de recuperação dupla possa não ser a mais apropriada, dependendo do seu custo de implementação em relação à variante de recuperação única. A Seção 4 discute essa questão mais detalhadamente. 4

Implementação

Como comentado anteriormente, os nós de borda podem ser switches Ethernet disponíveis para comercialização, com a única restrição de implementarem a extensão 802.1ah (IEEE, 2008). Contudo, os nós de núcleo necessitam processar os bloom filters através de operações lógicas do tipo AND. Como será mostrado nesta seção, isso pode ser feito nos componentes integrados atualmente disponíveis, devido a algumas

O propósito original da LGC é implementar regras de firewall, permitindo ou não o encaminhamento de um pacote. Para tanto, a LGC deve ser capaz de interpretar os diversos campos dos protocolos em suas diversas camadas. Entretanto, alguns componentes são capazes de realizar na LGC outras ações além de descarte. Duas dessas operações são as bases da implementação: redirecionamento e mascaramento de saída. O componente principal da LGC é a TCAM (Ternary Content Addressable Memory). A TCAM é um tipo de memória volátil que opera da seguinte maneira: em vez de procurar por um valor ao longo de suas entradas, recebe um valor e responde em qual posição de memória ele se encontra. A vantagem decorrente dessa memória é o tempo de resposta. A TCAM é uma memória assíncrona composta de lógica combinacional e está apta a responder em um tempo determinístico menor do que um período de relógio. Assim, caso duas entradas sejam a resposta para um dado valor, a TCAM responde com o endereço de menor valor. Outra vantagem desse tipo de memória é a capacidade de lidar com bits ternários. Isso significa que um bit pode assumir um valor “don’t care”; em outras palavras, qualquer teste efetuado em um bit com esse valor sempre resulta em positivo. Essa é uma importante

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010

53


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

característica para a implementação do processamento dos bloom filters. A desvantagem da TCAM, comparada a outras memórias, é o custo em função de sua capacidade. Por problemas de arquitetura, essa memória normalmente não possui capacidade superior a algumas dezenas de milhares de entradas. Seu custo aumenta exponencialmente à medida que é requerida maior capacidade. O montador de regra é, também, importante. Ele é programado pelo usuário para montar uma sequência de bits compostos por campos do cabeçalho do pacote. Essa sequência é colocada no registrador de comparação e procurada na TCAM. De acordo com o endereço que a TCAM retornar, uma ação associada será executada, ação essa que pode ser, por exemplo, o redirecionamento do pacote para um dado conjunto de interfaces. O interpretador de cabeçalho e a LGC são os únicos blocos necessários para se realizar o processamento dos bloom filters. De fato, os blocos mais complexos são os de lógica de camada 2 e 3, com todas as suas tabelas correspondentes. Na implementação proposta neste artigo, esses blocos não devem interferir no encaminhamento dos pacotes, de modo que possam ser programados permitindo que todos os pacotes passem livremente para a LGC. Dado esse fato, é possível imaginar uma nova geração de componentes que sejam compostos sem esses blocos, de forma a se tornarem mais simples, apresentando custo e consumo de energia reduzidos. 4.2 Regras de unicast e multicast Para o encaminhamento de pacotes unicast é requerida apenas uma regra por interface física. O montador de regra deve ser configurado para montar uma sequência de bits composta pelos campos B-SA, B-DA e B-VID. Na TCAM, todos os bits usados pelo campo IBI devem ser colocados no estado “don’t care” – assim como quase todos os bits usados no bloom filter, com exceção daqueles que identificam a interface relacionada a essa regra. Assim, se esses bits contiverem o valor 1 no bloom filter, a ação de redirecionamento do pacote para essa interface ocorrerá. Para o encaminhamento multicast, mais regras são necessárias, dado que as ações de redirecionamento unicast não são incrementais, ou seja, apenas uma pode ser executada – neste caso, a de maior prioridade. Assim, torna-se necessário criar regras específicas para encaminhamentos multicast, cobrindo todas as possíveis combinações. Esse número de combinações é dado por (4.1): p

p!

∑ n!(n − p)!

(4.1)

onde p é o número de interfaces no nó e n é a ordem de multicast. Por exemplo, para suportar todas as possibilidades em um nó de 10 interfaces, o número de regras necessárias é 1.012. Como, em geral, as TCAMs utilizadas nesses componentes possuem algo em torno de 2 mil regras, seria possível implementar todas as combinações de multicast. Entretanto, se o número de interfaces aumenta, as regras crescem exponencialmente, não sendo mais possível a implementação. Nesse caso, é necessário definir uma ordem máxima de multicast. 4.3 Regras para a recuperação de caminhos A técnica de recuperação de caminhos apresentada na Seção 2 é passível de implementação, sendo as ações de redirecionamento e mascaramento não conflitantes. A ação de mascaramento consiste em aplicar uma máscara na sequência de bits que determina as interfaces pelas quais o pacote deve ser redirecionado. Assim, torna-se possível excluir uma interface que, devido ao falso positivo, esteja sendo erroneamente utilizada para a transmissão. Para a variante de recuperação única, apenas uma regra por interface é necessária. Já para a variante de recuperação dupla, o número de regras é dado por (4.2):

2p +

p! ( p − 2)!

(4.2)

Como visto na Seção 2, a variante de recuperação dupla apresenta resultados pouco superiores em relação à variante de recuperação única. Assim, o custo, em termos de número de regras, deve ser considerado antes da adoção da variante. A Figura 10 apresenta um gráfico com o custo de cada variante em função do número de interfaces por nó. Custo (entradas na TCAM)

Recuperação única Recuperação dupla

Interf aces por nó

Figura 10 Comparação do custo de implementação versus o número de interfaces por nó

n=2

54

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010


Utilizando bloom filters para o encaminhamento de pacotes em redes Metro Ethernet

Conclusão Este trabalho apresentou a utilização de um bloom filter de 108 bits, alocado nos campos do cabeçalho Ethernet para o encaminhamento de pacotes. Para superar a alta probabilidade de ocorrência de falsos positivos apresentada por esse bloom filter, duas novas técnicas de bloqueio e recuperação de caminhos foram introduzidas. Os resultados de simulação atestam a eficiência da solução. Igualmente, foi demonstrado que a proposta pode ser implementada com o uso de componentes disponíveis para comercialização. Em trabalhos futuros, novas ideias devem surgir para aumentar ainda mais o nível de sucesso na criação de caminhos na rede. Por exemplo, atualmente, a definição do identificador de interface é feita de forma aleatória. Outra forma que privilegie a distribuição equânime dos bits no bloom filter pode ser interessante. É também necessário que se monte uma rede experimental com diversos nós de borda e de núcleo, de modo que a proposta seja efetivamente validada. Referências BLOOM, B. H. Space/time trade-offs in hash coding with allowable errors. Communications of the ACM, New York, v. 13, n. 7, p. 422-426, 1970. BRODER, A. Z.; MITZENMACHER, M. Network Applications of Bloom Filters: A Survey. Internet Mathematics, v. 1, n. 4, 2003. EUGSTER, P. T. et al. The many faces of publish/subscribe. ACM Computing Surveys, v. 35, n. 2, p. 114-131, jun. 2003.

HAO, F.; KODIALAM, M.; LAKSHMAN, T. V. Building high accuracy bloom filters using partitioned hashing. ACM SIGMETRICS 2007 – INTERNATIONAL CONFERENCE ON MEASUREMENT AND MODELING OF COMPUTER SYSTEMS, 2007, San Diego, USA. Proceedings... USA: ACM, 2007. p. 277-288. INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS (IEEE). 802.1ah: Provider Backbone Bridges. 2008. Disponível em <http://www.ieee802.org/1/pages/802.1ah.html>. Acesso em: jan. 2010.

JOKELA, P. et al. LIPSIN: line speed publish/subscribe inter-networking. ACM SIGCOMM 2009 – CONFERENCE ON DATA COMMUNICATION, 2009, Spain. Proceedings... Barcelona: ACM, 2009. p. 195-206. MCKEOWN, N. et al. OpenFlow: Enabling innovation in campus networks. ACM SIGCOMM Computer Communication Review, New York, v. 38, n. 2, p. 69-74, mar. 2008. SPYROPOULOS, T.; FDIDA, S.; KIRKPATRICK, S. Future internet: fundamentals and measurement. SIGCOMM Computer Communication Review, v. 37, n. 2, p. 101, abr. 2007. SQUID WEB PROXY. Disponível em <http://www.squid-cache.org/>. Acesso em: jan. 2010. WHITAKER, A.; WETHERALL, D. Forwarding without loops in Icarus. OPENARCH 2002 – OPEN ARCHITECTURE AND NETWORK PROGRAMMING, 2002, New York, USA. Proceedings... USA: IEEE, 2002. p. 63-75.

Abstract This work proposes the use of bloom filters for forwarding decision in Metro Ethernet Networks. The proposed bloom filter is short enough to be placed in a standard Ethernet header. To make it possible, two novel techniques are introduced. All the proposed ideas can be implemented on off-the-shelf devices as shown at the end of this paper. At the same time the efficiency of the techniques is proved by the simulation results. Key words: Bloom filter. Metro Ethernet. Network addressing.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 45-56, jan./jun. 2010

55



Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso Gustavo Leite de Mendonça Chaves* Para garantir a qualidade e a produtividade no desenvolvimento de software, é fundamental que sejam empregadas ferramentas que suportem adequadamente as atividades envolvidas. Contudo, os produtos comerciais que dominam o mercado de ferramentas de desenvolvimento exigem um investimento financeiro muito alto e periódico, o que inviabiliza sua adoção por pequenas organizações e pode colocar em risco sua manutenção a longo prazo. A adoção de ferramentas de software livre ou de baixo custo, de maturidade comprovada, é uma alternativa viável e que proporciona uma maior garantia de sustentabilidade à solução. Essa conclusão é validada pelos resultados obtidos em um estudo de caso conduzido pelo autor com a aplicação da metodologia aqui descrita. Palavras-chave: Desenvolvimento de software. Processos de software. Ferramentas de software. Software livre. CMMI. Introdução As atividades de desenvolvimento de software complexo exigem pessoas treinadas, processos bem definidos e ferramentas adequadas. As soluções comerciais mais conhecidas para ferramentas de desenvolvimento de software são, em geral, inacessíveis às pequenas e médias organizações. Existem ferramentas de software livre e de baixo custo, de maturidade comprovada, que podem ser adotadas com pequeno investimento financeiro. Porém, a adoção desorganizada desses tipos de ferramentas pode resultar numa solução complexa, incompleta, não integrada e não suportada. Este artigo apresenta um modelo viável e economicamente sustentável para que pequenas e médias organizações consigam suportar as atividades de desenvolvimento de software, utilizando ferramentas de software livre ou de baixo custo e implantando uma estrutura de suporte interno que garanta sua manutenção e evolução. A Seção 1 discute os problemas que dificultam a adoção das soluções comerciais mais conhecidas por pequenas organizações. A Seção 2 propõe uma solução viável baseada na adoção de ferramentas livres e de baixo custo, por meio de um projeto com objetivos, metas e organização bem definidos. A Seção 3 relata a experiência do CPqD com a aplicação dessa solução. A parte final apresenta as conclusões e as lições aprendidas com este trabalho. 1

Os problemas das soluções de mercado

A partir da consolidação dos modelos de referência para definição de processos de software, como o MPS.BR (KALINOWSKI et al., 2010) e o CMMI (2009), ocorrida na última

década, a adoção de processos alinhados a esses modelos deixou de ser um fator de diferenciação para se transformar num requisito de negócio para as organizações envolvidas com o desenvolvimento de software. Contudo, o investimento necessário para implantar efetivamente esses processos não é pequeno. De acordo com Travassos e Kalinowski (2008), para que uma pequena empresa implemente os processos básicos do modelo MPS.BR, estima-se que sejam necessários um tempo de maturação de um ano e um gasto de 0,5% do faturamento bruto. Os ganhos em produtividade advindos da implantação desses processos são notórios, mas o tempo de retorno do investimento, medido em anos, é um ponto de consideração tão importante quanto o custo financeiro. Como toda mudança organizacional, a implementação desses processos baseia-se na dose adequada de atenção a três aspectos fundamentais: pessoas, processos e ferramentas. Do ponto de vista da otimização, não é possível reduzir, significativamente, o tempo necessário para definir os processos e capacitar as pessoas. No entanto, é interessante notar que a seleção e a implantação das ferramentas de suporte são tarefas que podem aproveitar a enorme variedade de ofertas de produtos e de serviços, visando agilizar e baratear o projeto como um todo. Grandes organizações, para as quais o custo das ferramentas tem um impacto menor, tendem a adotar produtos líderes de mercado, inclusive contratando consultorias para customizá-los e suportá-los. O custo dessas

*Autor a quem a correspondência deve ser dirigida: gustavo@cpqd.com.br. Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 57-64, jan./jun. 2010


Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso

soluções é, normalmente, proibitivo para a maioria das pequenas e médias organizações. A disponibilidade a baixo custo de uma suíte de ferramentas integradas, documentadas e configuradas para suportar os processos de desenvolvimento de software seria um importante incentivo para pequenas e médias organizações buscarem atingir níveis de maturidade mais elevados em seus processos, tornando-as mais competitivas:

Há iniciativas nacionais para atender às necessidades de automação dos processos de gestão (de projetos, de recursos, de conhecimento, etc.), como a Estação TABA (COPPE/UFRJ, 2010). Contudo, não é fácil encontrar uma iniciativa consistente para a construção de uma suíte de ferramentas que automatize os processos operacionais do desenvolvimento de software.

A premissa básica do projeto deve ser a adoção preferencial de ferramentas livres ou de baixo custo, de modo a minimizar a dependência de fornecedores e os custos de gestão de licenças, possibilitar a atualização frequente de versões e garantir o fornecimento de ferramentas e serviços sempre atualizados para todos os desenvolvedores. As metas do projeto, relacionadas à construção de uma infraestrutura básica de serviços e à implantação das ferramentas de demanda mais urgente, devem ser as seguintes: a) estruturar uma equipe de ferramentas que fique responsável pela implantação, suporte e manutenção das ferramentas; b) adquirir e implantar os recursos de hardware e de software para suportar a disponibilização das ferramentas; c) definir um processo para seleção, homologação e evolução de ferramentas de software; d) selecionar e homologar as ferramentas mais importantes; e) definir e operacionalizar os procedimentos de provisionamento e suporte das ferramentas para os desenvolvedores; f) disponibilizar, de modo consolidado, todas as informações e os recursos necessários para os desenvolvedores; g) adaptar, se necessário, os processos de desenvolvimento de software da organização às ferramentas adotadas; h) migrar um conjunto de projetos e usuários para cada ferramenta adotada.

2

2.2 Organização do projeto

A dificuldade em adquirir e implantar ferramentas de software adequadas às necessidades e restrições da organização é um fator que tem impacto direto na infraestrutura de processos. Uma análise das funcionalidades das ferramentas existentes no mercado com base em critérios objetivos, por exemplo, capacidade de integração entre ferramentas e capacidade de adaptação das ferramentas, é bastante útil para apoiar a seleção de uma infraestrutura ferramental adequada para a realidade dos projetos e da organização. A definição desde o início da implementação de ferramentas de apoio aos processos também ajuda a minimizar o retrabalho na definição dos procedimentos da empresa e a diminuir a resistência à mudanças na forma atual de trabalho. (MONTONI, 2008, p. 37, grifo nosso).

Solução livre e de baixo custo

Atualmente, há uma oferta muito grande de ferramentas livres para desenvolvimento de software, como é possível constatar, por exemplo, ao se navegar nos diretórios de software livre da Free Software Foundation (2010), da Apache Software Foundation (2010a) ou do Freshmeat (GEEKNET, 2010). A implantação de uma solução baseada em software livre e de baixo custo precisa ser realizada no âmbito de um projeto, para garantir que a atenção não seja focada, exclusivamente, nos aspectos técnicos do problema mas, também, em seus aspectos organizacionais e humanos. 2.1 Objetivos e metas do projeto Um projeto como esse deve ter como objetivo implantar uma infraestrutura de ferramentas e um modelo de serviços que suportem os processos de desenvolvimento de software da organização e que garantam sua sustentabilidade financeira e tecnológica.

58

A equipe de ferramentas deve ser integrada por um time de técnicos com dedicação exclusiva, responsáveis pela seleção, implantação, integração e suporte às ferramentas. Para que a equipe conquiste a confiança inicial de todas as áreas de desenvolvimento da organização, é importante que ela seja alocada em uma unidade neutra da estrutura organizacional, usualmente a área responsável pelo suporte às tecnologias da informação. O projeto deve ser acompanhado por representantes de todas as áreas de desenvolvimento da organização, para garantir que suas prioridades sejam alinhadas às necessidades de cada área e para facilitar a adoção das ferramentas pelos projetos de desenvolvimento de software em andamento. Como todo projeto que pretende afetar o modo de trabalho de um grande número de pessoas, é fundamental que ele seja patrocinado pela alta direção da organização.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 57-64, jan./jun. 2010


Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso

O patrocinador deve garantir que os objetivos do projeto sejam comunicados, compreendidos e incorporados por todos os envolvidos, sanando as inevitáveis dúvidas e minando as eventuais resistências. 2.3 Seleção das ferramentas A seleção das categorias de ferramentas que serão implantadas durante o projeto deve contemplar as atividades essenciais dos processos envolvidos e atender às urgências das áreas de desenvolvimento da organização. É importante que essa decisão seja explícita e que haja consenso inicial entre todas as áreas interessadas, para evitar conflitos no decorrer do projeto. Apesar de óbvio, vale ressaltar a especial importância de se adequar o escopo do projeto aos recursos humanos e financeiros disponíveis, lembrando que, à medida que as novas ferramentas forem disponibilizadas, a equipe de ferramentas passará a ser requisitada, cada vez mais, a executar atividades de suporte, o que limitará sua produtividade na implantação de novas ferramentas. A seleção das ferramentas em si deve ser realizada em função de critérios claros e, na medida do possível, objetivos. A adoção de um procedimento formal de seleção pode ser conveniente para as ferramentas mais importantes ou para os casos em que não haja uma candidata preferencial clara. Nesse caso, é aconselhável utilizar um modelo de avaliação de software como o OpenBRR (2005), que procura determinar o grau de maturidade de um produto de software em função de indicadores de viabilidade do próprio produto, da satisfação dos requisitos funcionais e do atendimento a critérios preestabelecidos de usabilidade, qualidade, segurança, desempenho, escalabilidade, arquitetura, suporte, documentação, adoção, comunidade e profissionalismo. O procedimento resultante, se bem aplicado, promete ser razoavelmente objetivo. Contudo, um procedimento formal exige um esforço adicional que nem sempre se justifica. Diante da existência de uma candidata obviamente adequada e da ausência de conflitos ou opiniões divergentes entre as áreas interessadas, pode-se selecionar uma ferramenta a partir do seu histórico de utilização na própria organização e de uma análise sumária da qualidade e da saúde do projeto que a mantém. É importante que a ferramenta selecionada para determinada categoria seja única e atenda às necessidades de todas as áreas, para garantir a uniformidade dos procedimentos em toda a organização e para otimizar os recursos disponíveis pela equipe de ferramentas.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 57-64, jan./jun. 2010

2.4 Implantação das ferramentas Cada ferramenta escolhida deve ser adequadamente integrada aos processos de manutenção e suporte oferecidos pela equipe de ferramentas. Isso envolve a homologação da ferramenta, a documentação de procedimentos de manutenção, atualização e suporte, e a divulgação da documentação para os usuários. Idealmente, a equipe de ferramentas deve ser constituída por técnicos familiarizados com os processos de desenvolvimento de software da organização, para que possam melhor compreender as necessidades dos desenvolvedores. Contudo, é normalmente impossível garantir que a equipe seja autossuficiente. A seleção e a configuração de cada ferramenta devem ser apoiadas por um ou mais técnicos experientes nas atividades às quais a ferramenta se destina. Em organizações que já passaram pela implementação de algum modelo de processos de software, normalmente existem grupos institucionais responsáveis pela manutenção de cada processo, integrados por técnicos envolvidos diretamente nas atividades relacionadas. Esses grupos são candidatos ideais para participar do projeto, apoiando a equipe de ferramentas na seleção e configuração das ferramentas relacionadas aos respectivos processos. 2.5 Depois do projeto O projeto, por definição, deve ter escopo definido e duração limitada. Mas, a manutenção e a evolução das ferramentas devem ser processos contínuos e perenes. Portanto, o projeto deve ter dois objetivos principais: implantar um conjunto básico de ferramentas e estruturar um modelo que garanta sua manutenção e evolução futura. Manter a equipe de ferramentas como parte do time de suporte da área de tecnologia da informação faz sentido para manter o suporte adequado às ferramentas, mas não parece ser suficiente para garantir a evolução do conjunto de ferramentas. Sem o acompanhamento contínuo das áreas de desenvolvimento, é difícil manter o alinhamento com as reais necessidades da organização. Sugere-se que a evolução da suíte seja realizada no âmbito de projetos de curta duração, acompanhada por um grupo de representantes das áreas interessadas, com as metas importantes estabelecidas de início, considerando-se um possível esforço para que a equipe de ferramentas possa implementar ajustes urgentes no decorrer do projeto. Parece uma situação bastante adequada para a utilização de métodos ágeis

59


Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso

de gestão de projetos, como o Scrum (SCRUM ALLIANCE, 2010). 3

A experiência do CPqD

A metodologia descrita na seção anterior, para implantação de uma solução sustentável de ferramentas de desenvolvimento de software, foi aplicada no CPqD. O projeto inicial de estruturação das ferramentas básicas e da equipe de ferramentas foi chamado de CPqD Developer Suite (CDS) e ocorreu de fevereiro de 2008 a junho de 2009. 3.1 Ferramentas selecionadas O escopo do projeto determinou as atividades relacionadas ao desenvolvimento de software que deveriam ser tratadas. As atividades priorizadas foram as de controle de versões, gestão de mudanças, modelagem UML, implementação, construção (build), testes, gestão de requisitos, integração contínua e rastreabilidade. As ferramentas de desenvolvimento de software atualmente homologadas para uso corporativo são as seguintes: a) Subversion (THE APACHE SOFTWARE FOUNDATION, 2010b): ferramenta livre utilizada para controle de versão; b) JIRA (ATLASSIAN, 2010): ferramenta proprietária de baixo custo utilizada para gestão de mudanças, gestão de requisitos e gestão de inspeção de requisitos; c) Enterprise Architect – EA (SPARX, 2010): ferramenta proprietária de baixo custo utilizada para modelagem UML, modelagem de banco de dados e registro de rastreabilidade; d) Eclipse (THE ECLIPSE FOUNDATION, 2010): ferramenta livre utilizada para implementação de código; e) Apache – Ant (2010c), Apache – Maven (2002-2010) e Apache – Archiva (2006-2010): ferramentas livres utilizadas para automatização do processo de construção de software (build); f) Selenium (SELENIUM PROJECT, 2010): ferramenta livre utilizada para automatização de testes funcionais de aplicações Web; g) Sonar (SONARSOURCE, 2010): ferramenta livre utilizada para automatização do processo de inspeção de código e na coleta de indicadores de qualidade de software; h) Hudson (SUN MICROSYSTEMS, 2010): ferramenta livre utilizada para automatização dos processos de integração contínua; i) BrOffice.org (2010): ferramenta livre utilizada para edição de documentos texto,

planilhas e apresentações; j) Foswiki (2008) e Wordpress MU (2010): ferramentas livres utilizadas para implementação de ambientes de colaboração e comunicação entre os desenvolvedores. O JIRA e o EA são as únicas ferramentas proprietárias da suíte. Ambas foram selecionadas antes do início do projeto, por já serem utilizadas com sucesso no Instituto Atlântico1. O custo das licenças das duas foi considerado baixo, tendo em vista o número de usuários atendidos por elas. Existem alternativas livres para o JIRA, como Trac (EDGEWALL SOFTWARE, 2010) e RT (BEST PRACTICAL SOLUTION, 2010), que não foram avaliadas no contexto do projeto. Contudo, uma análise rápida de suas funcionalidades mostra que elas atenderiam adequadamente à demanda inicial relacionada à gestão de mudanças de software, mas dificultariam a extensão de sua aplicabilidade, como foi feito com o JIRA. Esse processo é detalhado na próxima seção. Também existem alternativas livres para o EA, como ArgoUML (COLLABNET, 2009), que não foram avaliadas pelo projeto. 3.2 Resultados técnicos Alguns dos resultados mais importantes do projeto CDS, além da seleção e da implantação das ferramentas, foram os seguintes: a) o suporte às ferramentas do CDS foi centralizado na equipe de ferramentas. Esse tipo de suporte era realizado, anteriormente, por grupos independentes dentro de cada área técnica da organização. A unificação do suporte trouxe benefícios importantes tanto em relação à padronização dos procedimentos quanto à otimização dos recursos; b) o "portal de ferramentas" foi criado num wiki, mantendo FAQs, instruções de instalação, instruções de suporte e documentação sobre todas as ferramentas; c) um blog interno foi utilizado para comunicar notícias frequentes sobre novas ferramentas, novas funcionalidades e dicas para a comunidade de usuários; d) a integração de algumas ferramentas exigiu o desenvolvimento de alguns componentes de software que foram disponibilizados como software livre, como, por exemplo, um framework para o desenvolvimento de hooks para

________________________________________ 1 Organização parceira do CPqD, com sede em Fortaleza (http://www.atlantico.com.br/).

60

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 57-64, jan./jun. 2010


Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso

usuários seja tão grande quanto o de usuários do JIRA ou do Subversion. 900 800 700

usuários distintos

600 500 400 300 200 100 0 02/08

06/08

09/08

12/08

03/09

07/09

10/09

01/10

05/10

mês

Subversion CleaCase EA JIRA

Figura 1 Evolução da adesão às ferramentas do CDS

3.3 Resultados financeiros O projeto CDS proporcionou uma grande economia para o CPqD, conforme mostra a Figura 2. Os gastos previstos no primeiro ano para a aquisição das duas suítes comerciais avaliadas ultrapassariam os 20 milhões de reais. A manutenção dessas licenças consumiria quase cinco milhões de reais nos anos subsequentes. O projeto CDS, como planejado, pretendia gastar pouco mais de um milhão de reais no primeiro ano e meio milhão de reais nos anos subsequentes, basicamente para manter a equipe de ferramentas. O gasto realizado ficou abaixo do planejado. 25

20

15 R$ milhões

o Subversion (CPqD, 2008-2010b) e um módulo para automação do JIRA (CPqD, 2008-2010a); e) alguns treinamentos foram gerados no formato de screencasts2 e disponibilizados no Moodle (MOODLE TRUST, 2010), um sistema livre de treinamento a distância; f) foram realizados workshops específicos sobre cada ferramenta, nos quais cada área de desenvolvimento pôde expor suas dificuldades e trocar experiências com outras áreas; g) o projeto ofereceu oportunidade para que os grupos de processo revisassem e simplificassem alguns processos de software, em função da consolidação do uso de uma só ferramenta e da melhoria geral do suporte. O projeto gerou outros resultados – inesperados, mas importantes –, sendo muitos deles relacionados à flexibilidade do JIRA como uma ferramenta genérica para implementação de workflows: a) inicialmente previsto para atender apenas ao processo de gestão de mudança de software, o JIRA acabou por atender a outros processos, nem todos ligados diretamente ao desenvolvimento de software; b) o JIRA também foi adaptado para implementar alguns sistemas de informação para suporte à área de qualidade; c) o JIRA começou a ser utilizado na gestão de projetos baseados na metodologia ágil Scrum; d) o JIRA também passou a ser utilizado na gerência de mudanças da área de TI. Ao término do projeto inicial do CDS, uma pesquisa informal demonstrou que o nível de satisfação dos usuários com os resultados era muito bom. Mas, também era alto o nível de expectativa em relação às evoluções futuras da suíte. A Figura 1 mostra a evolução da adesão a algumas ferramentas da suíte em função do número de usuários distintos que utilizaram as ferramentas em cada mês. Fica clara a forte adoção do JIRA que, juntamente com o Subversion, tem por volta de 700 usuários ativos no CPqD. O ClearCase é a ferramenta de controle de versão que foi substituída pelo Subversion. A expectativa é que os poucos projetos que ainda dependem dela sejam migrados para o Subversion até o final de 2010. O EA é uma ferramenta utilizada por um número menor de pessoas, essencialmente arquitetos de software e de banco de dados, de modo que não se espera que o número de

10

5

0

2008

2009

Suíte comercial A Suíte comercial B CDS planejado CDS realizado

Figura 2 Resultados financeiros do projeto CDS

Desconsiderando os gastos referentes à organização do projeto, que foi custeada pela área de qualidade, a maior parte dos gastos foi rateada, mensalmente, entre as áreas técnicas, em função do número de pessoas que utilizam as ferramentas no mês. Esse

_____________________________________ 2

Uma definição de screencast pode ser encontrada em http://en.wikipedia.org/wiki/Screencast.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 57-64, jan./jun. 2010

61


Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso

modelo pode ser implementado a partir dos logs de utilização das ferramentas Cliente/Servidor, como o Subversion e o JIRA, e daquelas que utilizam um gerenciador de licenças, como o EA. Ademais, o indicador de rateio pode ser ajustado facilmente, levando-se em conta o número de acessos, por exemplo. O indicador não considera, contudo, a utilização de ferramentas de uso local – a exemplo da Eclipse –, que não geram registros centralizados de utilização. Mesmo após o término do projeto (definição das ferramentas básicas do CDS e de sua estrutura de suporte e manutenção), a equipe de ferramentas mantém suas atividades de suporte, manutenção e evolução em projetos semestrais com metas acordadas com o Grupo de Ferramentas – grupo formal constituído por representantes das diretorias técnicas com a atribuição de definir padrões para as ferramentas de desenvolvimento de software. Conclusão Para garantir os níveis de qualidade e produtividade no desenvolvimento de software, é necessária a utilização de um conjunto completo, integrado e suportado de ferramentas de software. Contudo, as soluções comerciais líderes de mercado impõem um custo proibitivo para a maioria das pequenas e médias organizações. Este artigo apresentou um modelo viável e economicamente sustentável para que pequenas e médias organizações possam suportar as atividades de desenvolvimento de software utilizando ferramentas de software livre ou de baixo custo e implantando uma estrutura de suporte interno que garanta sua manutenção e evolução. O modelo foi aplicado com sucesso às atividades de seleção, suporte e manutenção do conjunto de ferramentas de software empregado atualmente no CPqD. A história de problemas com a adoção de ferramentas proprietárias e de sucesso com a adoção de ferramentas livres ou de baixo custo demonstra que é possível melhorar a qualidade geral dos processos substituindo-se uma fração do investimento financeiro na aquisição de ferramentas proprietárias pelo investimento em pessoas e processos. Está claro que, além de ser necessária a boa qualidade técnica das ferramentas adotadas, sem o esforço de uniformização de configuração e sem o investimento em suporte e manutenção, os resultados não seriam satisfatórios nem mesmo sustentáveis. De fato, conjectura-se que o alto investimento na aquisição de uma suíte de mercado seja um fator inibidor do investimento necessário em pessoas e processos, criando um ambiente propício para o surgimento de procedimentos divergentes e de

62

ferramentas alternativas. O custo de aquisição de uma ferramenta proprietária normalmente inclui, além da licença, um contrato de suporte com o fornecedor original. Quando o custo da licença é alto, o custo do suporte é considerado um “seguro” aconselhável. Ferramentas livres, por outro lado, são usualmente implantadas sem um contrato de suporte comercial associado. Como o seu custo de licença é zero, o custo dos contratos de suporte são percebidos como muito altos, comparativamente. Por conta disto, ao restringir a seleção de ferramentas pelo custo, fica mais óbvia a necessidade de se investir na estruturação de uma equipe interna, dedicada ao suporte e à manutenção da suíte, o que resulta num melhor balanceamento dos aspectos envolvidos: ferramentas, pessoas e processos. Um projeto, como proposto neste artigo, tem impactos na forma de trabalho de todos os envolvidos com desenvolvimento de software e, obviamente, é bastante susceptível à natural resistência a mudanças. Para que o projeto seja bem-sucedido, é importante garantir algumas condições: a) o apoio firme e constante da alta gerência da organização, para assegurar a participação ativa das áreas técnicas; b) a participação dos responsáveis pela manutenção dos processos de desenvolvimento, para que a equipe de ferramentas saiba a melhor maneira de se configurar e estruturar o suporte às ferramentas; c) o acompanhamento contínuo do projeto, feito pelos representantes das áreas técnicas, para garantir o fluxo constante de informações, facilitando e estimulando a adoção das ferramentas pelos projetos em andamento; d) a estruturação da equipe de ferramentas como um time coeso e dedicado, para garantir a qualidade do suporte e da manutenção das ferramentas. O CDS é uma solução real e viável para automatizar as atividades relacionadas ao desenvolvimento de software no CPqD. Ele é composto por um conjunto de ferramentas de software livre ou de baixo custo que podem ser adotadas por pequenas e médias organizações, porque não requerem grande investimento financeiro. Toda a documentação, configuração e integração desenvolvidas pelo projeto podem ser disponibilizadas livremente para outras organizações que tenham interesse em usar e colaborar na evolução do CDS.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 57-64, jan./jun. 2010


Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso

Agradecimentos O sucesso do projeto CDS se deve ao trabalho e ao apoio de dezenas de pessoas em todo o CPqD. O apoio do patrocinador, Antonio Vivaldi, foi fundamental para vencer as resistências naturais à mudança. Os facilitadores, Maurício Vianna e Mario Cortes, garantiram os recursos necessários à execução do projeto. Os grupos de processo institucionais auxiliaram na seleção e na configuração das novas ferramentas. Agradeço especialmente aos colegas da equipe de ferramentas do CPqD: André Linares Giraldi, Andreyev Dias de Melo, João S. O. Bueno, Luciana Américo Ribeiro Levanteze e Mário Celso Teixeira. Referências ATLASSIAN PTY LTD. JIRA. 2010. Disponível em: <http://www.atlassian.com/software/jira/>. BEST PRACTICAL SOLUTIONS. Request Tracker – RT. 2002-2010. Disponível em: <http:// bestpractical.com/rt/>. BROFFICE.ORG – PROJETO BRASIL. BrOffice.org. 2008. Disponível em: <http://broffice.org/>. CMMI Product Team. CMMI for Services, Version 1.2. Technical Report CMU/SEI-2009TR-001. Fevereiro 2009. Disponível em: <http://www.sei.cmu.edu/library/abstracts/reports/ 09tr001.cfm>. Acesso em: 3 maio 2010. COLLABNET. ArgoUML. 2001-2009. Disponível em: <http://argouml.tigris.org/>. COPPE/UFRJ. Estação TABA. 2010. Disponível em: <http://ramses.cos.ufrj.br/taba/>. CPqD. JIRA::Client. A Perl interface to JIRA's SOAP API. 2008-2010a. Disponível em: <http://code.google.com/p/jira-client/>. CPqD. SVN::Hooks. Framework for Subversion hooks. 2008-2010b. Disponível em: <http://code.google.com/p/svn-hooks/>. EDGEWALL SOFTWARE. Trac. 2003-2010. Disponível em: <http://trac.edgewall.org/>. FOSWIKI PROJECT AND ITS CONTRIBUTORS. Foswiki. 2008. Disponível em: <http://foswiki.org/>. FREE SOFTWARE FOUNDATION. Free Software Directory. 2000-2010. Disponível em: <http://directory.fsf.org/category/dev/>.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 57-64, jan./jun. 2010

GEEKNET. Freshmeat. 2010. Disponível em: <http://freshmeat.net/tags/softwaredevelopment>. KALINOWSKI, M. et al. MPS.BR: Promovendo a Adoção de Boas Práticas de Engenharia de Software pela Indústria Brasileira. In: CIBSE – XIII CONGRESO IBEROAMERICANO EN "SOFTWARE ENGINEERING", Universidad del Azuay, 2010, Cuenca, Ecuador. MONTONI, M. A. Lições Aprendidas com Implementação do Modelo MPS em Empresas. In: ROCHA, A. R. C. da; WEBER, K. C. (Org.). MPS.BR: Lições Aprendidas. Campinas, SP: Associação para Promoção da Excelência do Software Brasileiro – SOFTEX, 2008. p. 31-44. Disponível em: <http://www.softex.br/mpsbr/_livros/licoes/mps br_pt.pdf>. Acesso em: 28 abr. 2010. MOODLE TRUST. Moodle. 2010. Disponível em: <http://moodle.org/>. OPENBRR. Business Readiness Rating for Open Source: A proposed open standard to facilitate assessment and adoption of open source software. 2005. Disponível em: <http:// www.openbrr.org/wiki/index.php/Downloads>. Acesso em: 28 abr. 2010. SCRUM ALLIANCE. Scrum. Disponível em: <http://www.scrumalliance.org/>. SELENIUM PROJECT. Selenium. 2010. Disponível em: <http://seleniumhq.org/>. SONARSOURCE. Sonar. 2010. Disponível em: <http://sonarsource.org/>. SPARX SYSTEM PTY. LTD. Enterprise Architect – EA. 2000-2010 Disponível em: <http://sparxsystems.com.au/products/ea/>. SUN MICROSYSTEMS. Hudson. Disponível em: <http://hudson-ci.org/>.

2010.

THE APACHE SOFTWARE FOUNDATION. Maven. 2002-2010. Disponível em: <http://maven.apache.org/>. THE APACHE SOFTWARE FOUNDATION. Archiva. 2006-2010. Disponível em: <http://archiva.apache.org//>. THE APACHE SOFTWARE FOUNDATION. 2010a. Disponível em: <http://apache.org/>.

63


Desenvolvimento de software com ferramentas livres e de baixo custo: metodologia e estudo de caso

THE APACHE SOFTWARE FOUNDATION. Subversion. 2010b. Disponível em: <http://subversion.apache.org/>. THE APACHE SOFTWARE FOUNDATION. The Apache Ant Project. 2010c. Disponível em: <http://ant.apache.org/>. THE ECLIPSE FOUNDATION. Eclipse. 2010. Disponível em: <http://eclipse.org/>.

TRAVASSOS, G. H.; KALINOWSKI, M. iMPS: Resultados de desempenho de organizações que adotaram o modelo MPS. Campinas, SP: Associação para Promoção da Excelência do Software Brasileiro – SOFTEX, 2008. 28 p. Disponível em: <http://www.softex.br/mpsbr/_livros/imps/imps. pdf>. Acesso em: 28 abr. 2010. WORDPRESS.org. WordPress MU. 2010. Disponível em: <http://mu.wordpress.org/>.

Abstract In order to ensure the quality and productivity in software development, it is essential that adequate tools are used appropriately to support the activities involved. However, commercial products that dominate the market for development tools require high and periodical financial investments, which prevent their adoption by small organizations and may jeopardize their long-term maintenance. The adoption of free (open-source) software or low-cost tools, with proven maturity, is a feasible alternative that provides greater assurance of the solution sustainability. This conclusion is validated by the results obtained in a case study conducted by the author in applying the methodology described here. Key words: Software development. Software processes. Software tools. Free software. Open-source software.

64

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 57-64, jan./jun. 2010


Arquiteturas baseadas em WDM para as próximas redes PON João Batista Rosolem*, Rivael Strobel Penze, Edson Wilson Bezerra, Fernando Rocha Pereira, Bruno César de Camargo Angeli, Eduardo Mobilon, Júlio César Said, Antônio Donizete Coral Idealizadas para atender a uma ampla gama de novos serviços com base no protocolo IP, as redes GPON poderão apresentar, em breve, gargalos de transmissão para serviços de nova geração que exigem largura de banda dedicada por usuário. Este trabalho apresenta uma descrição das futuras topologias e tecnologias para redes ópticas de acesso do tipo PON – baseadas em multiplexação por comprimento de onda – que possibilitarão o oferecimento de largura de banda ilimitada aos usuários. Serão analisados as topologias e os dispositivos ópticos e eletro-ópticos necessários para viabilizar redes do tipo PON estendidas, PON híbridas e WDM-PON. Serão, também, relatados os resultados iniciais de pesquisas que estão em andamento no Projeto GIGA Fase 2 e se relacionam a essa área de estudo. Palavras-chave: PON. GPON. PON estendidas. CWDM. DWDM. Introdução O rápido crescimento do número de usuários e de serviços providos pela Internet levou as operadoras de telecomunicações a instalar sistemas ópticos que utilizam a técnica de multiplexação por comprimento de onda (Wavelength Division Multiplexing – WDM). Entre as vantagens da utilização dos sistemas WDM do tipo denso (Dense Wavelength Division Multiplexing – DWDM), podemos citar: elevação da capacidade de transmissão dos sistemas ópticos, economia de fibras e equipamentos de transmissão e aumento da flexibilidade e da “escalabilidade” na operação (FERNANDES, 2003). Sistemas DWDM de longa distância foram os primeiros a serem instalados na planta de telecomunicações e permitiram uma drástica redução dos custos de instalação, pela economia de novas fibras e equipamentos. Sistemas DWDM submarinos intercontinentais foram, posteriormente, instalados pelas mesmas razões já citadas. Recentemente, sistemas WDM alcançaram a área metropolitana da planta de telecomunicações, que apresenta paradigmas diferentes daqueles dos sistemas de longa distância. Na área metropolitana, os sistemas WDM de grande espaçamento espectral (Coarse Wavelength Division Multiplexing – CWDM) têm sido mais empregados, por oferecerem menor custo (RBN LITERATURE, 2002). Finalmente, a última fronteira está no acesso. Nesta, novas tecnologias para sistemas WDM, que utilizam um número reduzido de comprimentos de onda, foram desenvolvidas para o atendimento de serviços Triple Play (Internet de alta velocidade, televisão e telefonia) em uma única estrutura de conexão banda larga do tipo PON (Passive Optical Network) (GEORGE, 2005). Atualmente, dois tipos de redes PON dominam o

mercado para redes de acesso: as redes do tipo Gigabit-capable PON (GPON) e as redes Ethernet PON (EPON). Essas redes encontramse já padronizadas pelos organismos ITU-T e IEEE e razoavelmente disseminadas no mercado. As redes GPON e EPON utilizam multiplexação no domínio do tempo (Time Division Multiplexing – TDM), ou seja, o sinal de transmissão – tanto da central para o usuário (downstream) como do usuário para a central (upstream) – é compartilhado com diversos usuários (normalmente entre 32 e 64), o que gera uma limitação de banda. Outra limitação se dá no alcance da rede, devido à divisão do sinal óptico pelos splitters e pela distância lógica da rede, relacionada às janelas temporais de transmissão dos sinais dos usuários e da posição dos usuários em relação à central. Em decorrência do aparecimento de uma ampla gama de novos serviços baseados no protocolo IP (Internet Protocol) (CRIMI, 2003) – como TV de alta definição, cinema digital, educação sob demanda, esquemas de vigilância on-line, jogos on-line interativos, entre outros –, as redes GPON podem apresentar gargalos de transmissão para esses serviços de nova geração, que exigem largura de banda dedicada por usuário. Este trabalho apresenta uma descrição de futuras tecnologias e de topologias para redes ópticas de acesso do tipo PON, baseadas em WDM – soluções para o provimento de largura de banda ilimitada aos usuários. São analisadas, neste trabalho, as topologias e os dispositivos ópticos e eletro-ópticos necessários para viabilizar redes do tipo PON estendidas, PON híbridas e WDM-PON. São, também, relatadas as pesquisas em rede óptica de acesso do tipo PON, baseadas em WDM, que estão em desenvolvimento no Projeto GIGA – Fase 2.

*Autor a quem a correspondência deve ser dirigida: rosolem@cpqd.com.br. Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010


Arquiteturas baseadas em WDM para as próximas redes PON

1

Redes PON atuais

Um diagrama simplificado de uma rede do tipo GPON é mostrado na Figura 1. Essa rede é composta pelo terminal da estação central OLT (Optical Line Terminal), por uma fibra alimentadora e por vários terminais ópticos de usuários ONTs (Optical Network Terminal) que são conectados através de uma rede óptica de distribuição ODN (Optical Distribution Network) (ITU-T, 2008a). A ODN é constituída de fibras ópticas e acopladores de distribuição, ou splitters. Uma ODN é totalmente passiva, o que a torna muito atrativa para as empresas de telecomunicações, uma vez que não é necessário o uso de equipamentos e sistemas de alimentação elétricos na rede. A operação em uma única fibra óptica é possível através do uso de dois sinais distintos em comprimento de onda. A transmissão do sinal upstream, ou seja, do usuário para a central, é feita na região espectral de 1.300 nm (de 1.260 a 1.360 nm) e a transmissão do sinal downstream, ou seja, da central para os usuários, é feita na região espectral de 1.490 nm (de 1.480 a 1.500 nm). A transmissão de sinal de vídeo da central para os usuários pode, também, ocorrer na região espectral de 1.550 nm (1.550 a 1.560 nm). A largura de banda é dividida entre os usuários da rede pelo compartilhamento temporal do quadro de transmissão, através da técnica de acesso por multiplexação temporal (Time Division Multiplexed Access – TDMA). O protocolo de controle de acesso ao meio (MAC) das redes GPON suporta uma distância máxima lógica de 60 km entre a OLT e a ONT e uma máxima divisão de sinal de 128 vezes. Na prática, devido às perdas das fibras e dos

splitters, muitos sistemas comerciais atendem à especificação classe B, prevista na prática G.694.2 (ITU-T, 2003). Esta permite uma faixa dinâmica de 28 dB, uma divisão do sinal óptico de até 32 vezes e uma distância máxima de 20 km entre a OLT e a ONT. No cálculo da distância a ser atingida, as perdas totais, decorrentes dos splitters e da fibra, devem atender à faixa dinâmica permitida, sempre considerando as perdas reais das fibras e dos splitters instalados em campo. 2

Redes PON estendidas

Um primeiro passo na evolução das redes GPON consiste no aumento da distância e do número de divisões da rede. Para aumentar a distância e o número de divisões de uma rede GPON até o limite da distância lógica suportada pelo protocolo MAC, pesquisa-se, atualmente, o conceito de redes GPON estendidas (ITU-T, 2008b). As empresas de telecomunicações valorizam o fato de as redes GPON serem passivas, o que traz grande economia no seu processo de manutenção. O conceito de redes estendidas tem a intenção de não se distanciar desse objetivo. A seguir, abordamos os benefícios, as exigências e tecnologias já testadas que viabilizam o uso de extensores (Figura 2) em redes GPON. 2.1 Benefícios e requisitos para redes PON estendidas As novas instalações de redes de distribuição por fibra óptica podem se localizar muito longe das centrais e, potencialmente, além da distância máxima permitida pelas redes GPON. Nessa

Figura 1 Diagrama simplificado de uma rede do tipo GPON ou GEPON ONT ONT ONT

OLT Vídeo 1.550 nm →

ONT

Fibra

Splitter

Dados 1.490 nm → Dados 1.310 nm ← Repetidor

ONT ONT ONT ONT

Figura 2 Extensor bidirecional para GPON

66

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010


Arquiteturas baseadas em WDM para as próximas redes PON

situação, uma opção é construir uma nova central nas imediações dos usuários ou, alternativamente, instalar o equipamento OLT da central em um armário de rua, também próximo ao usuário. Claramente, existe um custo operacional associado à construção de uma nova central e, além disso, não é atrativo instalar uma OLT em um armário de rua. Uma alternativa, portanto, seria o uso de um extensor GPON (SUZUKI et al., 2007). Assim, um extensor GPON pode contribuir para a consolidação dos nós da rede, por meio da localização das OLTs em um número reduzido de centrais de maior porte. Essa simplificação da rede é importante para reduzir o custo fim a fim em um ambiente em que, devido ao aumento da taxa de transmissão, o retorno incremental não seja grande (SUZUKI et al., 2007). Um extensor GPON poderá, então, ser instalado nas estações restantes de menor porte. A longo prazo, existe, também, a possibilidade de eliminar as estações de menor porte quando todos os equipamentos legados forem retirados. Nesse caso, o extensor GPON poderá ser instalado em um pequeno armário fora da central. Esse extensor GPON poderá, ainda, evitar a necessidade de redes backhaul separadas para conectar a OLT, instalada em uma estação central de pequeno porte, a equipamentos de roteamento de estações centrais de grande porte. Backhaul é a porção de uma rede hierárquica de telecomunicações responsável por fazer a ligação entre o núcleo da rede, ou backbone, e as sub-redes periféricas. As redes GPON estendidas devem possibilitar a combinação de redes de acesso e redes metropolitanas em um único sistema. Um extensor de rede GPON poderá propiciar às empresas de telecomunicações mais flexibilidade nas implantações de redes GPON. Em uma rede GPON de grande extensão, as perdas de potência podem não permitir a instalação da máxima capacidade de divisão – como poderia ocorrer em uma rede PON curta. Com o uso do extensor GPON, há mais possibilidades de entregar a mesma divisão, independentemente da geografia. Extensores GPON poderão ser usados para atender às áreas rurais ou áreas pouco assistidas, utilizando-se alguns ramos da ODN. Isso não significa que a ODN poderá ser ativada e baseada na instalação de armários de rua. Para atender a todas essas características, um extensor GPON deverá ser compacto, apresentar baixo consumo, ter custo atrativo e requerer atributos de gerência simplificados. O extensor GPON deverá operar somente na camada física, ou seja, deverá ser transparente à taxa de

transmissão e aos diversos protocolos. 2.2 Tecnologias para redes PON estendidas As opções tecnológicas mais previsíveis para a realização da função extensor GPON seriam através de repetidores eletrônicos1 2R (Reamplifying + Re-shaping), 3R (Re-amplifying + Re-shaping + Re-timing) ou de amplificadores ópticos. Para a utilização dessas alternativas, o extensor deve estar preparado para sinais do tipo burst (upstream) (SUZUKI et al., 2007). Um benefício proveniente do uso dos extensores GPON é a possibilidade de uma eventual conversão de comprimentos de onda diretamente no repetidor, o que resulta em melhor utilização da fibra alimentadora2. Entretanto, um repetidor 3R deve apresentar custo atrativo, baixa potência de consumo e empacotamento mais simples do que aquele utilizado nos terminais da OLT. O requisito empacotamento pode constituir um desafio, dado que um extensor GPON contém muitos dos componentes utilizados nos terminais da OLT. Um segundo requisito importante é a transparência aos diversos protocolos que podem trafegar pela rede e, também, às diversas taxas de transmissão. Eventualmente, um repetidor do tipo 2R poderá apresentar todas essas características, pois esse tipo de repetidor, por não possuir a função de regeneração, permite uma maior transparência à taxa de transmissão. A outra opção tecnológica para extensores PON consiste no uso de amplificadores ópticos. Amplificadores a fibra dopada com érbio (Erbium Doped Fiber Amplifier – EDFAs) têm sido largamente empregados em plantas ópticas de longa distância e metropolitanas. Nas redes GPON padronizadas, os comprimentos de onda centrais upstream e downstream são, respectivamente, 1.310 e 1.490 nm. Os EDFAs são tradicionalmente usados nas bandas C e L (1.530 a 1.610 nm), mas sua utilização em comprimentos de onda mais baixos, tais como a banda S (1.480 a 1.520 nm), também já foi demonstrada (ROSOLEM et al., 2005). O uso de EDFAs como extensores GPON foi demonstrado em Effenberger (2002). Uma característica muito interessante dos EDFAs em redes PON é a possibilidade de serem utilizados como amplificadores remotos passivos (PRAT; PLA, 2005). Nesse caso, o extensor GPON mantém a característica totalmente passiva das redes GPON. À arquitetura de rede com amplificador remoto passivo, pesquisada por Prat e Pla (2005), foram adicionados dois estágios de amplificação: um na OLT, com um EDFA, e outro, remoto, que é

_________________________________________________________

Algumas pesquisas com extensores do tipo repetidores eletrônicos para GPON podem ser encontradas nas referências Davey (2006), Suzuki et al. (2003) e Umeda et al. (2006). 2 A demonstração da utilização dessa técnica por um extensor repetidor para GPON bidirecional encontra-se em Davey (2006).

1

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010

67


Arquiteturas baseadas em WDM para as próximas redes PON

constituído de uma fibra dopada com érbio (EDF) e bombeada remotamente por um laser de 1.480 nm, localizado na OLT. A potência de saída do laser de bombeio foi de 200 mW e o comprimento de fibra até a EDF foi de 20 km. De acordo com Prat e Pla (2005) e com base em uma simulação feita por computador VPI, quando o amplificador remoto é adicionado, uma melhoria de 14 dB é alcançada no orçamento de potência do enlace em relação a uma rede GPON convencional. Isso significaria, por exemplo, a mudança de um splitter de 64 divisões para outro de 1.024 divisões, mantendo uma margem de segurança de 4,8 dB. É importante que os extensores GPON, do tipo amplificador óptico, tenham suas bandas de amplificação compatíveis com os comprimentos de onda de operação já padronizados. Outros tipos de amplificadores a fibra apresentam banda de amplificação casada, como os comprimentos de onda da rede GPON. Os amplificadores a fibra dopada com praseodímio (PDFA) podem ser usados para a banda de 1.300 nm como extensores para sinal upstream (NISHIDA et al., 1998) e os amplificadores a fibra dopada com túlio (TDFA) (AOZASA; SHIMIZU, 2003) podem ser usados como extensores GPON, para sinal downstream (1.490 nm). Assim como já foi comentado sobre os extensores GPON, do tipo repetidor, os amplificadores ópticos devem estar preparados para amplificar adequadamente os sinais do tipo burst, originados das ONTs (sinal upstream), sem distorção. Para isso, os amplificadores ópticos podem precisar de controle de ganho para suprimir a geração de transientes ópticos, quando o sinal do tipo burst está presente na entrada dos amplificadores. Existem dois métodos mais usados para controle do ganho do amplificador. Um método é o controle automático de ganho (Automatic Gain Control – AGC), que utiliza controle de ganho do tipo feedback e forward, para monitorar, constantemente, a saída do amplificador. A outra técnica para controle do ganho do amplificador é a de grampeamento de ganho. A técnica AGC é utilizada em muitos sistemas de longa distância. Entretanto, o tempo de resposta dessa técnica depende da dinâmica do ganho do amplificador, bem como da velocidade dos circuitos de controle – tais como amplificadores operacionais e microcontroladores –, de tal forma que sua utilização não é prática para sinais do tipo burst. A técnica do grampeamento de ganho é independente da dinâmica do ganho e da velocidade do circuito. Suzuki et al. (2005) descrevem uma experiência detalhada na qual amplificadores PDFA e TDFA foram usados como extensores de PON, com bom desempenho para sinais do tipo burst. O

68

método de grampeamento foi aplicado ao amplificador-extensor GPON, sendo dividido em duas seções de amplificação, uma consistindo em um PDFA e a outra, em um TDFA. O PDFA apresenta dois estágios de ganho: o primeiro estágio utiliza bombeamento copropagante, com grampeamento de ganho; o segundo, bombeio e grampeamento de ganho contrapropagante. O comprimento de onda escolhido para o grampeamento foi 1.330 nm. Um filtro óptico foi usado para suprimir uma parcela da potência de ASE (Amplified Spontaneous Emission) gerada pelo amplificador, reduzindo, dessa forma, as penalidades decorrentes do ruído gerado pela ASE no receptor. O comprimento de onda e a largura de banda do filtro foram fixados em 1.310 e 3 nm, respectivamente. O uso do filtro compromete a largura de banda total usada no sinal upstream das redes GPON, que é de 1.310 nm ±50 nm. Nesse experimento, todas as potências de bombeio foram ajustadas para 300 mW. Outra tecnologia de amplificação, muito interessante para uso como extensor GPON, são os amplificadores ópticos semicondutores (Semiconductor Optical Amplifier – SOAs) (DAVEY et al., 2008; NESSET et al., 2006; SUZUKI; NAKAGAWA, 2005). Esses dispositivos são construídos através de processo similar àquele utilizado para construir lasers, com a principal diferença de que os espelhos das faces do SOA constituem camadas antirreflexivas, de modo a permitir uma grande inversão de população e conseguir um ganho alto. Os SOAs são dispositivos que vêm sendo desenvolvidos desde a década de 80 e, devido à existência de vários fornecedores, espera-se que o custo de tais dispositivos caia o suficiente para a utilização em redes de acesso. As ligas de materiais da região ativa dos SOAs, que são do tipo InxGa1−xAsyP1−y/InP, podem ser escolhidas de tal forma que eles operem dentro da região espectral entre 1.200 e 1.700 nm. Atualmente, são encontrados, no mercado, SOAs para as regiões de funcionamento das redes GPON. Considerando seu desempenho, os SOAs atualmente disponíveis possuem um pequeno ganho de sinal, na ordem de 20 dB. A potência de saturação fica acima de 10 dBm e a figura de ruído inferior, a 7 dB. Assim como já comentado sobre os extensores repetidores para PON, os amplificadores ópticos devem estar preparados para amplificar adequadamente os sinais do tipo burst originados das ONTs (sinal upstream), sem distorção. Suzuki e Nakagawa (2005) demonstraram que, para um sistema GPON operando em 1,25 Gbit/s, os transientes são evitados desde que o SOA opere em seu regime linear. No mesmo trabalho (SUZUKI; NAKAGAWA, 2005), é descrita uma experiência desenvolvida pela British Telecom que envolveu uma rede GPON

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010


Arquiteturas baseadas em WDM para as próximas redes PON

estendida e utilizou SOAs tanto para o sinal downstream como para o upstream. Uma outra possibilidade de extensores GPON é o uso de tecnologias híbridas, como, por exemplo, amplificação Raman, conjugada com a de SOAs (IANNONE; REICHMANN, 2008). Essa arquitetura possibilita os tradicionais serviços da rede GPON em 1.310 e 1.490 nm e mais três sinais de vídeo em 1.510, 1.530 e 1.550 nm, sobre 60 km de distância de enlace e 64 divisões de potência pelo splitter. O extensor GPON consiste em um amplificador híbrido SOARaman, com 75 nm de largura de banda na janela de 1.550 nm, e um SOA convencional, operando em 1.300 nm. O SOA opera com corrente de 250 mA e a potência do laser de bombeio do amplificador Raman discreto opera no comprimento de onda de 1.455 nm, com 400 mW. O amplificador Raman discreto utiliza fibra com as seguintes características: comprimento de onda de 1.550 nm, comprimento de 4,5 km, área ativa de 18,7 µm2, atenuação de 0,32 dB/km, dispersão de -20 ps/nm/km e coeficiente de ganho Raman de 2.5 W -1/km. 3

Redes PON híbridas

Uma segunda opção de evolução das redes GPON são as chamadas redes PON híbridas WDM-TDM (Wavelength Shared Hybrid PON – WS-HPON) (AN et al., 2004; BOUDA et al., 2007; SONG et al., 2006). Estas têm como objetivo a ampliação do número de ODNs alimentadas por uma única fibra, como mostra a Figura 3. Nesse caso, uma rede GPON padrão, com funcionamento baseado na técnica TDM, tem sua capacidade ampliada em quatro vezes, graças ao uso da técnica WDM.

Nessa ampliação, um requisito fundamental é a não alteração ou troca das ONTs da rede GPON já existente. Isso significa que a ampliação não altera o modo de funcionamento da rede GPON. A ampliação se dá pela inserção, na OLT, de outros transmissores com lasers em comprimentos de onda distintos, porém compatíveis com os receptores das atuais ONTs. Ou seja, esses comprimentos de onda devem estar na faixa de 1.490 nm +/-10 nm. Na OLT, esse grupo de sinais é multiplexado pelo multiplexador WDM1, mostrado na Figura 3, e inserido na rede pelo multiplexador WDM2, do tipo CWDM Insere/Remove, estando o canal Insere escolhido em 1.490 nm. O multiplexador WDM2 separa, também, os canais upstream para os receptores ópticos da OLT. Os canais WDM transmitidos da OLT, após passarem pela fibra alimentadora, são distribuídos para cada ODN, por meio de um processo inverso ao apresentado na OLT. Cada comprimento de onda é direcionado a uma dada ODN e, dentro dela, o mesmo sinal é enviado para todas as ONTs pertencentes a essa ODN. Todas as ONTs pertencentes a uma dada ODN transmitem o sinal upstream em um comprimento de onda CWDM entre 1.260 e 1.360 nm, usando TDMA. Esses sinais passam pelos splitters e pelo multiplexador WDM2 e se dirigem às fibras alimentadoras. Na OLT, o multiplexador WDM2 direciona os sinais para um demultiplexador CWDM e, finalmente, para os receptores ópticos. Dessa forma, tem-se uma ampliação da rede sem mudanças significativas nas OLTs, diminuindo o custo de implantação. Esse tipo de topologia representa uma transição entre as atuais redes GPON e as futuras redes WDM-PON. ONT ONT ONT

ODN1

ONT

Splitter

OLT

Rx λ1 Rx λ2

WDM 2

Fibra

ONT

ODN2

Splitter

WDM 2 Tx λ1

Tx λ4

ONT

ONT

Rx λ4

Tx λ3

ONT ONT

CWDM

Rx λ3

Tx λ2

ONT ONT

ONT

Splitter

ONT ONT

ONT

WDM 1

ONT

ONT WDM 1

ONT

ONT

ODN3

ONT

Splitter

ONT ONT ONT ONT

ONT ONT ONT

ODN4

ONT

Splitter

ONT ONT ONT ONT

Figura 3 Diagrama de uma rede PON híbrida WDM-TDM

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010

69


Arquiteturas baseadas em WDM para as próximas redes PON

4

um comprimento de onda específico para a central na mesma fibra e, preferencialmente, no mesmo comprimento de onda recebido. Esse sinal é inserido na rede no mesmo demultiplexador, que, agora, funciona como multiplexador. Na central, após passar por um circulador óptico que separa os sinais downstream e upstream, um novo demultiplexador separa os comprimentos de onda, direcionando-os para seus receptores ópticos. Conforme visto anteriormente em redes WDMPON, a cada ONT é atribuído um comprimento de onda dedicado. Desse modo, cada usuário pode enviar e receber dados da OLT a qualquer instante, independentemente da condição dos outros usuários. Isso significa que não há distribuição de janelas temporais entre os distintos usuários da rede WDM-PON. Assim, os problemas de gerenciamento da rede, ocasionados pelo seu compartilhamento, são eliminados. Nessa configuração, cada usuário

Redes WDM-PON

As futuras redes PON apontam na direção do uso de DWDM para atendimento aos usuários. Essas redes são conhecidas como WDM-PON e serão detalhadas a seguir. 4.1 Funcionamento e características de redes WDM-PON Nas redes WDM-PON, teríamos, em uma central, o equipamento OLT com múltiplos comprimentos de onda e, no outro lado da rede, os usuários, sendo que cada comprimento de onda da central seria destinado a um dado usuário, como ilustra o diagrama simplificado da Figura 4. Na central, há diversos transmissores e receptores para cada comprimento de onda. Esses sinais em distintos comprimentos de onda são multiplexados (MUX) e enviados para os usuários. Próximo às ONTs, um demultiplexador (DEMUX) separa o comprimento de onda de cada usuário. Cada usuário envia, por sua vez, OLT

Tx λ1 Tx λ2 Tx λ3 Tx λ.. Tx λ..

MUX WDM

ODN ONT

Tx λ..

ONT

Tx λ.. Circulador

Tx λn

Fibra

Rx λ1

DEMUX MUX WDM

ONT ONT ONT ONT

Rx λ2

ONT

Rx λ3 Rx λ.. Rx λ..

ONT DEMUX WDM

Rx λ.. Rx λ.. Rx λn

Figura 4 Diagrama simplificado de uma rede do tipo WDM-PON

fica com um canal óptico ponto a ponto com a OLT, apesar de a arquitetura física da rede ser ponto-multiponto. Para que essa configuração seja possível, um multiplexador/demultiplexador óptico deve ser utilizado, na ODN, no lugar do divisor de potência usado em redes GPON. Além disso, um demultiplexador óptico deve ficar localizado na OLT para separar os diversos comprimentos de onda, como mostrado na Figura 4. Essas operações de multiplexação e demultiplexação podem ser realizadas por meio da utilização de um roteador do tipo AWG (Array Waveguide Grating). Com a utilização de WDM-PON, os problemas de QoS (qualidade de serviço) são bastante reduzidos, já que a rede é baseada em conexões

70

ponto a ponto dedicadas. Além disso, não há necessidade de transmissão do sinal das ONTs em modo burst, nem de utilização de algoritmos MAC para gerenciar os tempos de transmissão de cada ONT – como acontece nas redes GPON. Esses fatores permitem que a operação da rede WDM-PON seja bastante simples. Outra vantagem é a utilização de um roteador AWG, em vez de um divisor de potência na ONT. Dessa forma, a perda de inserção é muito menor que a perda apresentada pelos splitters e não depende do número de usuários. Além disso, como a largura de banda de cada receptor nas ONTs é igual à largura de banda dedicada do canal, não há deterioração adicional da relação óptica sinal-ruído (OSNR) relacionada ao número de usuários. O fato de a OSNR ser independente

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010


Arquiteturas baseadas em WDM para as próximas redes PON

do número de assinantes torna as redes WDM-PON flexíveis e com grande escalabilidade. Uma desvantagem é a impossibilidade de realocar a banda não utilizada de um usuário para outro. 4.2 Arquiteturas e tecnologias de redes WDM-PON Um desafio no que se refere às redes WDM-PON, cujas soluções vêm sendo pesquisadas há vários anos, é a questão relativa ao uso de fontes ópticas que operam em determinado comprimento de onda em cada ONT. Isso eleva o custo do terminal do usuário, não somente pelo custo da fonte em si, mas pela necessidade de se manter milhares de placas distintas em estoque para manutenção desses terminais. Visando à solução desse problema, algumas propostas de uso de fontes sem cor (colorless) têm sido estudadas, conforme veremos a seguir. A primeira tentativa de experimentação em uma rede WDM-PON data de 1991 e é chamada de CPON (Composite PON) (KASHIMA, 1991). A arquitetura da CPON emprega o conceito de DWDM na janela de 1.550 nm, na direção downstream, e um único comprimento de onda para upstream, na janela de 1.300 nm, utilizado em todas as ONTs. Através da técnica de acesso por multiplexação temporal (TDMA), um receptor óptico de comprimento de onda único, que opera em modo burst, é usado na OLT para receber o sinal upstream. Com isso, a arquitetura CPON evita as dificuldades inerentes ao uso de fontes WDM no upstream, mas ainda requer o uso de fontes ópticas de alto custo, com comprimentos de onda bem definidos (tais como lasers DFB) nas ONTs. Como alternativa, a rede conhecida como RiteNet foi proposta em 1994, visando a eliminar a necessidade de fontes ópticas de alto custo nas ONTs (FRIGO et al., 1994). Nessa proposta, não existe fonte óptica na ONT. Parte do sinal downstream é modulado na ONT e enviado de volta para a OLT como sinal upstream, num esquema denominado loopback. A modulação, nesse caso, pode ser realizada numa parte específica do quadro de transmissão do sinal downstream por um modulador eletro-óptico. Na proposta original, empregam-se duas fibras ópticas e um esquema de divisão de tempo para os canais upstream e downstream. Uma alternativa dessa topologia, que hoje vem ganhando muito espaço, é o uso de um amplificador óptico semicondutor reflexivo (Reflective Semiconductor Optical Amplifier – RSOA) nas OLTs, conforme mostra a Figura 5. Nesse caso, o RSOA é usado não somente para modular o sinal upstream, mas, também, para amplificá-lo opticamente – característica intrínseca desse componente. Ao contrário do

modulador eletro-óptico, que impõe perdas de sinal, o RSOA amplifica esse sinal. Conforme pode ser visto na Figura 5, o sinal utiliza como semente um sinal de luz gerado na OLT. O espectro desse sinal é de banda larga do tipo emissão espontânea amplificada (ASE), gerada, normalmente, por um EDFA, SOA ou SLED (Superluminescent Light Emitting Diode) – ao contrário do esquema com modulador, que usa uma parte específica do quadro de transmissão do sinal gerado na OLT. Uma variante dessa técnica é o uso, na OLT, de uma semente com vários lasers DFB multiplexados e enviados para o acesso (CIP TECHNOLOGIES, 2008). Essa opção permite que os sinais recebidos nas ONTs, para remodulação pelos RSOAs, sejam coerentes, o que possibilita que taxas maiores de transmissão possam ser geradas no acesso. As alternativas para o uso de moduladores e RSOAs, apesar de resolverem o problema do uso de fontes sem cor no terminal do usuário, têm como inconveniente o alto custo desses dispositivos. Para solucionar esse problema, uma alternativa é a arquitetura LARNET (LEE et al., 2007; ZIRNGIBL et al.,1995). Utiliza-se um LED (Light Emitting Diode) de banda larga em cada ONT (SLED), promovendo a utilização de uma fonte óptica de baixo custo em cada ONT. Nessa arquitetura, um sinal de espectro banda larga é colocado em cada entrada do roteador AWG na direção upstream. Dependendo da porta de entrada, um diferente comprimento de onda estará presente na saída, implementando o chamado fatiamento espectral (LEE et al., 2007; ZIRNGIBL et al.,1995). Assim, na porta de saída do roteador AWG, existirão vários comprimentos de onda; cada um correspondendo ao sinal upstream de uma ONT. Um receptor de banda larga que opera no modo burst é empregado na OLT. Esse receptor deve ser capaz de receber qualquer espectro de frequência óptica do LED. Por outro lado, a presença de um único receptor na OLT requer que o sinal upstream seja dividido entre as ONTs por um protocolo de acesso TDMA. A maior limitação está no orçamento de potência e no alcance óptico advindos do uso de fatiamento espectral na ONT. Na utilização da arquitetura LARNET, propõe-se o uso de um laser sintonizável na central para gerar o sinal downstream. Cada comprimento de onda desse sinal dirige-se a uma ONT distinta, devido às propriedades espectrais do roteador AWG. Uma outra opção para o transmissor das ONTs, que vem sendo muito estudada, é a utilização de lasers FP (Fabry-Perot) controlados por meio de travamento por injeção (injection-locking), a partir de sinal obtido com a filtragem prévia de uma fonte de ASE (PARK et al., 2004; WONG et al., 2006; XU et al., 2007), conforme mostra a Figura 6. Se um filtro for escolhido

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010

71


Arquiteturas baseadas em WDM para as próximas redes PON

adequadamente para cada comprimento de onda desejado, será possível obter a potência óptica desejada com a mesma seletividade de comprimento de onda de um laser DFB (Distributed Feedback) de baixo custo. Assim como o método mostrado na Figura 5, o método de travamento por injeção, em uma primeira concepção, utiliza uma fonte óptica central de espectro banda larga. A luz de banda larga gerada por uma fonte instalada na central é cortada espectralmente pelo divisor/combinador AWG. A luz contínua (CW) é utilizada para gerar o efeito injection-locking no laser FP posicionado dentro da ONT. Esse laser não é aquele que, hoje, pode ser facilmente encontrado no mercado (laser que usa travamento por injeção coerente de luz). Nessa proposta, o chip do laser FP é um pouco diferente, por ter reflectividade menor do que o laser FP normal na face frontal, ou seja, a face voltada para a fibra óptica é maior na face traseira voltada para o fotodetector. O chip do laser FP deverá, também, ser mais longo do que o convencional, para reduzir o espaçamento dos modos de cavidade e, também, permitir que todos os comprimentos de onda, dentro da faixa de operação dos AWGs, sejam gerados nas diversas ONTs. Algumas pesquisas (PARK et al., 2004; WONG et al., 2006; XU et al., 2007) trazem demonstrações

nas quais um laser FP é o transmissor de uma ONT e utiliza a técnica de travamento por injeção. Uma desvantagem desse método é que a taxa de transmissão gerada é limitada a poucos gigabits por segundo. Xua et al. (2008) propuseram uma melhoria para esse método, na qual a semente, fonte de luz utilizada na OLT, é composta por vários lasers DFB que operam de forma contínua (CW). Ainda de acordo com Xua et al. (2008), taxas de transmissão de até 10 Gbit/s podem ser atingidas pelos lasers FP das ONTs, ao se utilizar esse método. Essa opção reduz substancialmente os custos da rede WDM-PON, permitindo, ainda, a obtenção de taxas de transmissão mais elevadas (2,5 Gbit/ s) para o sinal upstream. 5

Tecnologias para futuras redes PON pesquisadas no Projeto GIGA – Fase 2

Acompanhando a evolução tecnológica das redes de acesso, o Projeto GIGA Fase 2 apresenta metas de pesquisa em redes WDMPON em dois subprojetos: transmissão híbrida CWDM/DWDM e amplificadores ópticos de banda larga e baixo consumo. Nesses subprojetos, pretende-se estudar os vários aspectos ligados às redes de acesso do tipo WDM-PON descritos neste artigo, entre os quais

P

I I

t P

t

RSOA

t

Figura 5 Método do transmissor da ONT de WDM-PON usando um amplificador semicondutor reflexivo (RSOA) e, na central, fontes de luz lasers DFB FP Laser

0.8

1.0

Potência óptica (m W)

Potência óptica (m W)

1.0

ASE

0.6 0.4 0.2 0.1 0 1550 1551

Injection Locked FP laser

0.8 0.6 0.4 0.2 0.1 0

1552 1553

1554

1555

1556 1557

Comprimento de onda (nm)

1550 1551

1552

1553

1554

1555 1556

1557

Comprimento de onda (nm)

Figura 6 Método do transmissor da ONT de WDM-PON usando um laser FP com travamento por injeção de luz e, na central, uma fonte de luz ASE

72

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010


Arquiteturas baseadas em WDM para as próximas redes PON

destacamos: redes PON estendidas utilizando repetidores 1R, 2R e 3R e amplificadores ópticos; redes PON utilizando sistemas híbridos CWDM/DWDM; redes PON híbridas utilizando sistemas híbridos TDM-WDM; redes WDM-PON utilizando dispositivos colorless do tipo RSOA e laser FP com injection-locking. A seguir, detalhamos alguns resultados preliminares obtidos nesses subprojetos. 5.1 Plataforma de transmissão CWDM/DWDM Um dos resultados já obtidos para aplicações de acesso (e metropolitanas) foi a plataforma de transmissão de 16 canais CWDM/DWDM em 2,5 Gbit/s, utilizando transceivers SFP (Small Form-factor Pluggable). Nessa aplicação, conhecida como sistema de transmissão híbrida CWDM/DWDM, alguns canais da grade CWDM do ITU-T – como, por exemplo, 1.530 e 1.550 nm – podem ser utilizados para transporte de canais DWDM. Essa plataforma oferece grande flexibilidade, compactação e redução de custos para as empresas operadoras de telecomunicações (HINDERTHUR; FRIEDRICH, 2003), pois os canais CWDM ou DWDM permitem diversas formas de utilização dentro da mesma rede de fibras ópticas. Por exemplo, canais DWDM podem transportar informação entre estações da mesma operadora ou entre operadoras distintas, enquanto os canais CWDM podem atender usuários corporativos. Uma outra grande possibilidade de utilização dessa plataforma, que vem sendo pesquisada atualmente, aplica-se a redes PON híbridas (EICHENBAUM; DAS, 2002; RASTISLAV, 2003), conforme apresentado na Seção 4 deste artigo. A Figura 7 mostra uma foto da plataforma de

transmissão híbrida CWDM/DWDM que vem sendo pesquisada e desenvolvida no CPqD, no âmbito do Projeto GIGA Fase 2. A Figura ilustra, também, os espectros de transmissão CWDM/DWDM obtidos nessa plataforma. Notase que o espectro de 8 canais DWDM é transmitido dentro da janela de 1.550 nm da grade CWDM. Teoricamente, até 20 canais DWDM podem ser transmitidos dentro dos canais 1.530, 1.550, 1.570, 1.590 e 1.610 nm. Em relação à plataforma de transmissão híbrida CWDM/DWDM, uma das pesquisas realizadas analisou o comportamento dos transceivers DWDM em condições de temperatura nas quais, normalmente, os transceivers CWDM não são afetados (pois são projetados para que seus comprimentos de onda tenham livre deslocamento com a temperatura). Já os lasers DWDM apresentam restrições mais rígidas quanto ao deslocamento espectral que ocorre com a variação da temperatura ambiente – ao contrário dos lasers CWDM, que podem variar dentro de uma grande faixa espectral (≈ 3 nm). Tipicamente, os lasers DWDM podem variar em, no máximo, 0,2 nm. A plataforma de transmissão híbrida CWDM/DWDM, com 15 lasers CWDM e 8 lasers DWDM, com separação de 100 GHz multiplexados dentro do canal CWDM de 1.550 nm, foi testada em uma temperatura ambiente de até 45°C. Conforme mostram as Figuras 8(a) e 8(b), os lasers DWDM mostram variações de comprimento de onda inferiores a 0,05 nm e variação de potência inferior a 1 dB. Quando a temperatura ambiente é de 45ºC, a temperatura interna dos transceivers SFP atinge cerca de 55°C.

Figura 7 Plataforma de transmissão híbrida CWDM/DWDM e espectros ópticos de transmissão

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010

73


Arquiteturas baseadas em WDM para as próximas redes PON

Figura 8 Resultados dos testes com lasers DWDM do sistema de transmissão híbrida para (a) variação do comprimento de onda e (b) potência com temperatura de 45ºC Canal 1482 Canal 1492

35

110 100

Canal 1487 Canal 1497

30

Transmissão (%)

Perda de inserção (dB)

40

25 20 15 10 5 0

(a)

1477

1482

1487

1492

1497

1502

Comprimento de Onda Onda (nm) (nm) Comprimento de

90 80 70 60 50 40 30 20 10 (b) 0 1460

1480

1500

1520

1540

Comprimento de Onda (nm)

Figura 9 (a) Caracterização conjugada dos multiplexadores WDM1 e WDM2 e (b) curva de caracterização espectral de sinais downstream em um transceiver GPON usado na ONT

5.2 Plataforma de transmissão híbrida TDM/ WDM Outra aplicação que vem sendo pesquisada é a transmissão híbrida TDM/DWDM em redes GPON com sinais downstream feitos por 4 comprimentos de onda, dentro da janela de 1.490nm +/-10 nm, e 4 comprimentos de onda CWDM upstream (um para cada ODN), conforme detalhado na Seção 4 deste artigo. Nessa pesquisa, foram escolhidos para a OLT os seguintes comprimentos de onda: 1.482, 1.487, 1.492 e 1.497 nm. O uso desses comprimentos de onda não é, ainda, padronizado no mercado. Portanto, para sua obtenção, foi necessária uma busca apurada de fornecedores. O mesmo ocorre para o multiplexador WDM1, mostrado na Figura 3, que permite a multiplexação desses quatro comprimentos de onda na OLT e sua demultiplexação em uma unidade de rede (ONU) na qual os multiplexadores e splitters são instalados. A Figura 9(a) mostra uma caracterização conjugada dos multiplexadores WDM1 e WDM2 utilizados nessa pesquisa. Nessa aplicação, que utiliza a transmissão híbrida, um requisito fundamental é a não alteração ou troca das ONTs de uma rede GPON já existente para a ampliação da rede. Assim, caracterizamos um transceiver padronizado, utilizado nas ONTs de GPONs, com base em sua largura de banda óptica, a fim de demonstrar a

74

necessidade de utilização dos canais dentro da banda de 1.490 nm. Pela norma G.984.2 (ITU-T, 2003), esses dispositivos devem operar na recepção com banda entre 1.480 e 1.500 nm e, na transmissão, entre 1.260 e 1.360 nm. A Figura 9(b) mostra uma curva de caracterização desses dispositivos. Como pode ser observado, de fato, ocorre um corte na banda do dispositivo para comprimentos de onda acima de 1.513 nm. O corte não pôde ser determinado em comprimentos inferiores, mas o mesmo ocorre para comprimentos de onda abaixo de 1.465 nm. Em outra área do Projeto GIGA Fase 2, pesquisam-se os extensores de redes GPON, o uso de SOAs em 1.310 e 1.490 nm e, também, de repetidores eletrônicos dos tipos 1R, 2R e 3R como extensores de rede. Conclusão Idealizadas para atender a uma ampla gama de novos serviços baseados em protocolo IP, as redes GPON poderão apresentar, em breve, gargalos de transmissão para serviços de nova geração que exigem largura de banda dedicada por usuário. Este trabalho apresentou uma descrição das futuras topologias e tecnologias de rede óptica de acesso do tipo PON – baseadas em multiplexação em comprimentos de onda – que permitirão o oferecimento de largura de banda ilimitada aos usuários. Foram analisadas

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010


Arquiteturas baseadas em WDM para as próximas redes PON

as topologias e os dispositivos ópticos e eletro-ópticos necessários para viabilizar redes dos tipos PON estendidas, PON híbrida e WDM-PON. Foram, também, relatados alguns resultados iniciais de pesquisas em andamento no Projeto GIGA Fase 2, relacionadas a essa área de estudos. Entre esses resultados, destacam-se as pesquisas inovadoras em sistemas híbridos do tipo CWDM/DWDM e sistemas híbridos TDM/WDM, que oferecem grande flexibilidade, compactação e redução de custos para as empresas operadoras de telecomunicações. Referências AN, F. et al. Success: a next-generation hybrid WDM/TDM optical access network architecture. Journal of Lightwave Technology, Piscataway, NJ, USA, v. 22, n. 11, p. 2557-2569, 2004. AOZASA, S.; SHIMIZU, M. Novel gain spectrum control method for input power and temperature variations in S-band thulium doped fiber amplifier. In: 29th EUROPEAN CONFERENCE ON OPTICAL COMMUNICATION, 29., 2003, Rimini, Italy. Proceedings... Italy. p.21-25. BOUDA, M. et al. Cost-Effective Optical Access Upgrades using Wavelength Shared Hybrid Passive Optical Network Architecture. In: OPTICAL FIBER COMMUNICATION AND THE NATIONAL FIBER OPTIC ENGINEERS CONFERENCE (OFC/NFOEC), 2007, Anaheim, CA, USA. Proceedings... USA: OFC/NFOEC, 2007. (Paper NthD5). CIP TECHNOLOGIES. WDM-PON Technologies. (Whitepaper). 2008. Disponível em: <http://www.ciphotonics.com/PDFs_Jan08/ WPON_White_Paper_v10.pdf>. Acesso em: 8 mar. 2010. CRIMI, J. C. Next Generation Network (NGN) Services. (Whitepaper). TELCORDIA TECHNOLOGIES, 2003. Disponível em: <http://www.mobilein.com/NGN_Svccs_WP.pdf>. Acesso em: 8 mar. 2010. DAVEY, R. P. et al. DWDM reach extension of a GPON to 135 km. Journal of Lightwave Technology, Piscataway, NJ, USA, v. 24, n. 1, p. 29-31, 2006. DAVEY, R. P. et al. Next generation extended reach PON? In: OPTICAL FIBER COMMUNICATION AND THE NATIONAL FIBER OPTIC ENGINEERS CONFERENCE (OFC/NFOEC), 2008, San Diego, USA. Proceedings... USA: OFC/NFOEC, 2008. EFFENBERGER, F. J. Methods for PON reach enhancement. In: OPTICAL HYBRID ACCESS NETWORK IFSAN CONFERENCE, 2002,

Florence, Italy. Proceedings... 2002. EICHENBAUM, B. R.; DAS, S. K. Economics of Coarse WDM Compared with Dense WDM for Wavelength-Addressable PON Access Architectures. In: NATIONAL FIBER OPTIC ENGINEERS CONFERENCE (NFOEC), 2002, USA. Proceedings... NFOEC: 2002. FERNANDES, L. F. Tutoriais Redes Ópticas: WDM. 2003. Disponível em: <http://www.teleco.com.br/tutoriais/tutorialwdm/de fault.asp>. Acesso em: 8 mar. 2010. FRIGO, N. J. et al. RITENET: a passive optical network architecture based on the remote interrogation of terminal equipment. In: CONFERENCE ON OPTICAL FIBER COMMUNICATION (OFC’94), 1994, San Jose, CA, USA. Proceedings... 1994. (Post-deadline paper 8). GEORGE, J. E. Designing Passive Optical Networks for Cost Effective Triple Play Support. OFS, 2005. Disponível em: <http://www.ofsoptics.com/knowledge_base/pape rs.php>. Acesso em: 8 mar. 2010. HINDERTHUR, H.; FRIEDRICH, L. WDM Hybrid Transmission Based on CWDM Plus DWDM. Lightwave Europe, p. 9-12, jul. 2003. IANNONE, P. P.; REICHMANN, K. C. Hybrid SOA-Raman Amplifiers for Fiber-to-the-Home and Metro Networks. In: OPTICAL FIBER COMMUNICATION AND THE NATIONAL FIBER OPTIC ENGINEERS CONFERENCE (OFC/NFOEC), 2008, San Diego, CA, USA. Proceedings... USA, 2008. (Paper NtuC1). ITU TELECOMMUNICATION STANDARDIZATION SECTOR (ITU-T). G.984.2. Gigabit-capable Passive Optical Networks (GPON): Physical Media Dependent (PMD) layer specification. Geneve, 2003. ______. G.984.1. Gigabit-capable Optical Networks (GPON): characteristics. Geneve, 2008a.

Passive General

______. G.984.6. Gigabit-capable Passive Optical Networks (GPON): Reach extension. Geneve, 2008b. KASHIMA, N. Upgrade of passive optical subscriber network. Journal of Lightwave Technology, v.9, n. 1, p. 113-119, 1991. LEE, C. H. et al. WDM-PON experiences in Korea. Journal of Optical Networking, v. 6, n. 5, p. 1582-2591, 2007. NESSET, D. et al. Demonstration of enhanced reach and split of a GPON system usingsemiconductor optical amplifier. In: 32nd

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010

75


Arquiteturas baseadas em WDM para as próximas redes PON

EUROPEAN CONFERENCE ON OPTICAL COMMUNICATION, 32., 2006, Cannes, France. Proceedings... France, 2006. NISHIDA, Y. et al. Development of an efficient praseodymium-doped fiber amplifier. IEEE Journal of Quantum Electronics, v. 34, p. 1332-1339, 1998. PARK, S. J. et al. Fiber-to-the-Home Services Based on Wavelength-Division-Multiplexing Passive Optical Network. Journal of Lightwave Technology, v. 22, n. 11, 2004. PRAT, J.; PLA, D. Remote Amplification in HighDensity Passive Optical Networks. In: INTERNATIONAL CONFERENCE ON TRANSPARENT OPTICAL NETWORKS (ICTON 2005), 7., 2005, Spain. Proceedings... IEEE: 2005. p. 409-412, v. 2. RASTISLAV, R. The utilization of the DWDW/CWDM combination in the metro/access networks. In: JOINT FIRST WORKSHOP ON MOBILE FUTURE AND SYMPOSIUM ON TRENDS IN COMMUNICATION (SYMPOTIC '03), 1., 2003, Bratislava, Slovakia . Proceedings... RBN LITERATURE. Characteristics of CWDM. Broadcast Papers, Redfern Broadband Networks, 2002. Disponível em: <http://www.broadcastpapers.com/whitepapers/C haracteristics-Of-CWDM-.cfm? objid=32&pid=340>. Acesso em: 16 ago. 2006. ROSOLEM, J. B. et al. All silica S-band doublepass erbium-doped fiber amplifier. IEEE Photonics Technology Letters, v. 17, n. 7, p. 1399-1401, 2005. ROSOLEM, J. B. et al. S-C-L triple band doublepass erbium-doped silica fiber amplifier with an embedded DCF module for CWDM applications. Journal of Lightwave Technology, v. 24, n. 10, p. 3691-3697, 2006. SONG, H. et al. Shared-wavelength WDM-PON access network for supporting downstream traffic with QoS. In: OPTICAL FIBER COMMUNICATION CONFERENCE (OFC),

2006, Anaheim, CA, USA. Proceedings... USA, 2006. SUZUKI, K. I. et al. B-PON repeater for enlarging transmission distance between OLT and ONT. IEICE Transactions on Communications, Japan, v. J86-B, n. 10, p. 2053-2064, 2003. SUZUKI, K. I. et al. Burst-mode optical amplifier for PON application. In: EUROPEAN CONFERENCE ON OPTICAL COMMUNICATION, 31., 2005, Glasgow, Scotland. Proceedings... Scotland, 2005. SUZUKI, K. I. et al. Amplified gigabit PON systems. Journal of Optical Networking, v. 6, n. 5, 2007. SUZUKI, N.; NAKAGAWA, J. First demonstration of full burst optical amplified GE-PON uplink with extended systems budget of up to 128 ONU splits and 58km reach. In: EUROPEAN CONFERENCE ON OPTICAL COMMUNICATION, 31., 2005, Glasgow, Scotland. Proceedings... Scotland, 2005. UMEDA, D. et al. Bidirectional 3R repeater for GE-PON systems. In: EUROPEAN CONFERENCE ON OPTICAL COMMUNICATION, 32., 2006, Cannes, France. Proceedings... France, 2006. WONG, E. et al. Uncooled Optical InjectionLocked 1.55 mm VCSELs for Upstream Transmitters in WDM-PONs. In: OPTICAL FIBER COMMUNICATION AND THE NATIONAL FIBER OPTIC ENGINEERS CONFERENCE (OFC/NFOEC), 2006, Anaheim, CA, USA. Proceedings... USA, 2006. XU, Z. et al. High-speed WDM-PON using CW injection locked Fabry-Pérot laser diodes. Optics Express, v. 15, n. 6, p. 2953-2962, 2007. XUA, Z. et al. 10 Gb/s carrier-reuse WDM-PON based on injection locked FP-LDs. Optics Communications, v. 281, n. 20, p. 5213-5217, 2008. ZIRNGIBL, N. et al. LARnet, a local access router network. IEEE Photonics Technology Letters, v. 7, n. 2, p. 215-217, 1995.

Abstract Idealized to meet a wide range of new services based on IP protocol, soon, GPON networks will have to deal with transmission bottlenecks regarding new generation services that require dedicated broadband per user.This paper presents a description of future technologies and network topologies for optical access network based on wavelength division multiplexing. It analyzes the network topology and optical and electro-optical devices needed to make feasible the networks like Extended PON, Hybrid TDM PON and WDM-PON. The research works under development in GIGA Project Phase 2 are also described. The initial results obtained from the researches under way related to both the GIGA Project Phase 2 and the area of study will also be listed. Key words: PON. G-PON. Extended PON. CWDM. DWDM.

76

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 65-76, jan./jun. 2010


Propriedade intelectual do CPqD Nesta seção, são apresentados os resumos dos pedidos de patentes depositados pelo CPqD no Instituto Nacional da Propriedade Industrial (INPI) e o pedido de patente depositado pelo CPqD no United States Patent and Trademark Office (USPTO), no primeiro semestre de 2010.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010


Propriedade intelectual do CPqD

1.

Resumos dos pedidos de patentes depositados no INPI no primeiro semestre de 2010 (54) MÉTODO E SISTEMA PARA CRIAÇÃO DE CENÁRIO IDEAL DE CONTROLES PARA PROTEÇÃO DE INFRAESTRUTURAS CRÍTICAS. Dados do pedido: (21) INPI/SP 018100011780 (22) 07/04/2010 (57) "MÉTODO E SISTEMA PARA CRIAÇÃO DE CENÁRIO IDEAL DE CONTROLES PARA PROTEÇÃO DE INFRAESTRUTURAS CRÍTICAS" de qualquer setor organizacional, como, por exemplo, telecomunicações, transportes, energia, água, esgoto, finanças, entre muitos outros. Inicialmente, a infraestrutura em questão é identificada (1) a partir de seus ativos que dão suporte a serviços críticos, sendo as informações geradas disponibilizadas na Base de Ativos (11). Em seguida, são identificadas e analisadas (2) todas as ameaças que possam existir sobre a infraestrutura armazenada na Base de Ativos (11). As informações geradas a partir dessa identificação e dessa análise são armazenadas na Base de Ameaças Analisadas (21). Por fim, é gerado o cenário ideal de controles (3) para proteção de infraestrutura em questão, a partir da identificação, classificação, análise e seleção de controles de segurança que visam eliminar ou reduzir os riscos de ocorrência de incidentes de segurança advindos da exploração ou da evidência de vulnerabilidades por agentes associados às ameaças analisadas (21). Todas as informações geradas, relativas ao cenário ideal de controles de segurança, são disponibilizadas na Base de Cenário Ideal (31)". (72) Sérgio Luis Ribeiro / João Henrique de Augustinis Franco / Christiane Maria da Silva Cuculo / Sandra Maria Campanholi Tome / Marcos Baracho Trindade / Leonardo Moreira Lage / Danilo Yoshio Suiama / Emilio Tissato Nakamura.

78

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010


Propriedade intelectual do CPqD

(54) SISTEMA LEITOR DE TELAS E DE APOIO À LEITURA. Dados do pedido: (21) INPI/SP 018100014428 (22) 26/04/2010 (57) "Sistema leitor de telas e de apoio à leitura (1000) capaz de realizar a decodificação de conteúdos textuais e visuais através da síntese de fala (conversão textofala), dotado de modos de interação por teclado e dispositivo apontador (mouse), e que provê a integração das seguintes funcionalidades específicas de apoio à leitura: – desfragmentação de sentenças (1100), que auxilia o usuário a delimitar corretamente de trechos de texto, completando automaticamente as sentenças quando necessário; – acompanhamento visual da leitura (1200), que realça cada sentença ou palavra lida pela máquina de síntese (conversão texto-fala), permitindo ao usuário acompanhar a realização fonética da leitura; – acesso a tesauro (1300), que permite a busca de sinônimos de palavras selecionadas pelo usuário; – identificação do texto principal (1400), que permite identificação automática do corpo da notícia em meio aos diversos elementos presentes na tela; – configuração do nível de verbosidade (1500), que permite ajustar o dito sistema (1000) a diferentes tipos de usuários ou a diferentes níveis de dificuldade de leitura”. (72) Ismael Mattos Andrade Ávila / Henrique Meira Costa / Claudinei Martins / José Carlos Lima Pinto / Luiz Acácio Guimarães Rolim.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010

79


Propriedade intelectual do CPqD

(54) MÉTODO ON-LINE DE CÁLCULO DE ROTA COM PROTEÇÃO GARANTIDA DE REQUISIÇÕES DE CONEXÃO PONTO A PONTO COM REQUISITOS HETEROGÊNEOS DE AGREGAÇÃO E DE QoS ENTRE EQUIPAMENTOS DE BORDA UTILIZANDO ALGORITMOS GENÉTICOS. Dados do pedido: (21) INPI/SP 018100018874 (22) 25/05/2010 (57) "Método on-line de cálculo de rota com proteção garantida de requisições de conexão ponto a ponto com requisitos heterogêneos de agregação e de QoS entre equipamentos de borda utilizando algoritmos genéticos” para aprovisionamento automático de serviços em redes de telecomunicações. Aplica-se à área de engenharia de tráfego em Sistemas de Gerência ou Planos de Controles de diversos tipos de redes de telecomunicações que demandam conexões ponto a ponto com requisitos heterogêneos de agregação, de proteção e de qualidade de serviço (QoS). Inicialmente são calculados os recursos disponíveis da rede em questão (1), a partir da sua topologia e dos circuitos já aprovisionados. Em seguida, as requisições de conexão são mapeadas em requisições de circuitos ponto a ponto (2), e é gerada uma solução para cada requisição de circuito, por meio de um procedimento que utiliza o conceito de algoritmo genético (3). Por fim, as soluções geradas são ajustadas e mapeadas (4) em um formato adequado ao Sistema de Gerência ou Plano de Controle. (72) Rafael Augusto Scaraficci / Marcos Rogério Salvador.

80

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010


Propriedade intelectual do CPqD

(54) SISTEMA DE SERVIÇOS DE GOVERNO ELETRÔNICO COM GARANTIA DE ACESSO UNIVERSAL UTILIZANDO MÉTODO DE IDENTIFICAÇÃO AUTOMÁTICA DE PERFIS DE USUÁRIOS. Dados do pedido: (21) INPI/SP 018100020937 (22) 10/06/2010 (57) "Sistema de serviços de governo eletrônico com garantia de acesso universal utilizando método de identificação automática de perfis de usuários, que oferece meios e formas de interação ao usuário (cidadão) para acessar, através de diversos tipos de terminais e plataformas de acesso, um conjunto de serviços de governo eletrônico integrados sistemicamente em um único portal, sendo que os ditos serviços são automaticamente adequados/adaptados ao perfil de qualquer usuário, inclusive pessoas com deficiências físicas e de alfabetização”. (72) Daniel Moutinho Pataca / Pei Jen Shieh / Sônia Mayumi Kutiishi / José Eduardo Canhone / Marcos de Carvalho Marques.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010

81


Propriedade intelectual do CPqD

(54) MÉTODO PARA MITIGAÇÃO DE REALIMENTAÇÕES DE SINAL EM REPETIDOR ISOFREQUENCIAL COM DUPLEXAÇÃO TDD. Dados do pedido: (21) INPI/SP 018100021873 (22) 17/06/2010 (57) "Método para mitigação de realimentações de sinal em repetidor isofrequencial com duplexação TDD (1000), que atua de modo contínuo após a sincronização do repetidor e a habilitação de sua retransmissão (1020) e é capaz de evitar a ocorrência de ecos e oscilações no dito repetidor sem a necessidade de usar geradores de teste, cujo princípio de funcionamento é efetuar, de acordo com determinados critérios de atualização (1040), a comparação entre duas amostras em quadros subsequentes de um trecho conhecido e periodicamente repetitivo do sinal com duplexação TDD, sendo a primeira amostra com presença de eco (1050) e a segunda amostra sem presença de eco (1090) devido à inserção de um atraso de retransmissão T (1070) no quadro subsequente, de tal modo que a dita comparação permite identificar precisamente a função de realimentação que gera o eco, e consequentemente permite efetuar o cálculo de uma função de cancelamento de eco Ck(jω) (1120), dita função Ck(jω) que será então aplicada aos próximos sinais recebidos (1030) para subtrair e cancelar o eco do sinal a ser retransmitido pelo repetidor". (72) Leonardo Pezzolo / Alexandre Della Santa Barros.

82

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010


Propriedade intelectual do CPqD

(54) SENSOR ÓPTICO DE PROXIMIDADE SEM CONTATO MECÂNICO APLICADO A MATERIAIS FERROMAGNÉTICOS. Dados do pedido: (21) INPI/DF 12100000397 (em cotitularidade com Eletronorte e UFPA) (22) 12/05/2010 (57) "Sensor Óptico de Proximidade sem Contato Mecânico Aplicado a Materiais Ferromagneticos". A patente de invenção para o sensor de proximidade sem contato mecânico é composto por um ímã, comum grau de liberdade para deslocamentos radiais, em relação ao eixo da turbina (poderia ser outro elemento com corpo ferromagnético), mas acoplado mecanicamente a uma fibra óptica com uma Grade de Bragg, que deve se manter fixa na extremidade de conexão. A maior ou menor proximidade de um material ferromagnético aumenta ou reduz a força do imã atuando sobre a fibra estruturada na grade de Bragg mas sem deslocamento axial significativo, a fibra se estende a partir do ponto de fixação para o meio externo até o local de medição. (72) Flávio Borin / João Batista de Mello Ayres Neto / Danilo Cesar Dini / Claudio Floridia / Rogerio Lara Leite / Petrus Agripino de Alcântara Júnior.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010

83


Propriedade intelectual do CPqD

(54) MÉTODO E SISTEMA PARA AVALIAÇÃO, DIMENSIONAMENTO E PREVISÃO DA CAPACIDADE DE ENLACE EM REDES DE PACOTES MULTISSERVIÇOS HETEROGÊNEOS. Dados do pedido: (21) INPI/SP 018100022915 (22) 24/06/2010 (57) “Método e Sistema para Avaliação, Dimensionamento e Previsão da Capacidade de Enlace em Redes de Pacotes Multisserviços Heterogêneos" de qualquer abrangência geográfica, com qualquer natureza tecnológica, atendendo aos requisitos de Qualidade de Serviço (QoS) e/ou SLA (Service Level Agreement) estipulados para cada serviço ou categoria de serviço, compreendendo uma etapa de desagregação (200) do volume de tráfego inicial A0 (101) em componentes de tráfego parciais (111~119) para cada categoria de serviço Si, seguida de uma etapa de previsão (301 ~ 309) do valor de cada componente individual para um tempo futuro Tn (991) a partir da identificação do comportamento do tráfego na origem, e uma terceira etapa de reagregação (400) desses componentes de tráfego para obter a estimativa de tráfego total An (191) para o tempo futuro Tn. (72) Sandra Maria Campanholi Tome / Edson Luiz Ursini.

84

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010


Propriedade intelectual do CPqD

2.

Resumo do pedido de patente depositado no USPTO no primeiro semestre de 2010 (54) FRAUD AND EVENTS INTEGRATED MANAGEMENT METHOD AND SYSTEM. Dados da concess達o: (21) 23US (22) 03/05/2010 (57) "FRAUD AND EVENTS INTEGRATED MANAGEMENT METHOD AND SYSTEM, comprising information regarding two kinds of systems: Information Technology Security Events Management Systems (IT Security) and Fraud Detection and Prevention Management Systems (Frauds), enabling the investigation, monitoring, and correlation of customer banking transactions via the banking institution's diverse electronic communication channels, with the various security incidents arising from their different IT assets (Internet Banking, automatic teller machines, debit/credit cards, among others), online and in realtime, providing a wide-reaching and flexible approach to combat fraud and treat security information incidents. By means of this integrated approach, the invention continuously increases the system's accuracy (reducing the false-positive rate - false alarms), applying antifraud methods, enriching them and feeding them relevant information regarding suspicious security events arising from proven malicious attacks by monitoring IT equipment accesses, and taking into consideration business rules, customer behavioral profiles, all of which using scientific models and techniques". (72) Jo達o Eduardo Ferreira Neto / Andre Blazko / Helen Mary Murphy Peres Teixeira / Claudia Sciortino de Reina.

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010

85


Propriedade intelectual do CPqD

3.

Códigos do INPI para Identificação de Dados Bibliográficos (INID) contidos nos documentos de patentes

(11) Número da patente (21) Número do pedido (22) Data do depósito (30) Dados da prioridade unionista (data de depósito, país, número) (45) Data da concessão da patente (51) Classificação internacional (54) Título (57) Resumo (72) Nome do inventor (81) Países designados

86

Cad. CPqD Tecnologia, Campinas, v. 6, n. 1, p. 77-86, jan./jun. 2010



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.