Cadernos CPqD Tecnologia Vol. 5 • n. 1 • janeiro/junho 2009
Cadernos CPqD Tecnologia Editores-Chefes João Marcos Travassos Romano Claudio A. Violato Editores Executivos Antonio Carlos Gravato Bordeaux Rego Claudio de Almeida Loural Cleida A. Queiroz Cunha Marco Antonio Ongarelli Aldionso Marques Machado Comitê Editorial (Fórum de P&D do CPqD) João Marcos Travassos Romano (Universidade Estadual de Campinas – Unicamp) Cláudia Maria Bauzer Medeiros (Sociedade Brasileira de Computação – SBC) Hugo Luís Fragnito (Universidade Estadual de Campinas – Unicamp) Hypolito José Kalinowski (Sociedade Brasileira de Microondas e Optoeletrônica – SBMO) José Augusto Suruagy Monteiro (Sociedade Brasileira de Computação – SBC) Rege Romeu Scarabucci (Representante do Conselho Curador do CPqD) Rui Seara (Sociedade Brasileira de Telecomunicações – SBrT) Weiler Alves Finamore (Sociedade Brasileira de Telecomunicações – SBrT)
Assistentes Editoriais Adriana Maria Antonietta Bevilacqua Maria Fernanda Simonetti Ribeiro de Castilhos Preparação de Originais e Revisão Elisabete da Fonseca Juliana Cristina Fernandes Pereira Márcia Inêz de Oliveira Andrade Bozzi Maria Paula Gonzaga Duarte Rocha Sergio Ricardo Mazzolani Thaís Ribeiro Bueno Projeto Gráfico, Capa e Diagramação Gerência do Conhecimento – GECON Tiragem 1000 exemplares Correspondência e Pedidos de Assinatura Assessoria de Comunicação e Inteligência de Mercado – ACIM Rodovia Campinas-Mogi-Mirim, km 118,5 CEP 13086-902 – Campinas, SP – Brasil DDG: 0800.7022773 e-mail: marketing@cpqd.com.br Diretoria do CPqD Presidente: Hélio Marcos M. Graciosa Vice-Presidente de Tecnologia: Claudio A. Violato Vice-Presidente Comercial: Luiz Del Fiorentino Vice-Presidente Financeiro: Cesar Cardoso
Cadernos CPqD Tecnologia. Fundação CPqD – Centro de Pesquisa e Desenvolvimento em Telecomunicações. Campinas, SP, v. 1, n. 1 (jan./dez. 2005 -) v.il.; 30 cm. v.5, n.1, jan./jun. 2009 Semestral Resumos em português e inglês ISSN 1809-1946 1. Tecnologia. 2. Telecomunicações. I. Fundação CPqD CDD 621.38 A revista Cadernos CPqD Tecnologia é uma publicação da Fundação CPqD – Centro de Pesquisa e Desenvolvimento em Telecomunicações, dedicada à divulgação das pesquisas desenvolvidas pela instituição. A revista é distribuída gratuitamente. Esta revista foi impressa pela gráfica Citygráfica Artes Gráficas e Editora Ltda. com miolo de papel Reciclado 90g/m2 e capa em papel Reciclado 240g/m2 para o CPqD em setembro de 2009.
ISSN 1809-1946
Cadernos CPqD Tecnologia Vol. 5, n. 1, janeiro/junho 2009
Apresentação Claudio A. Violato...............................................................................................................................3 Prefácio João Marcos Travassos Romano...................................................................................................... 5 Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital Esther Menezes, Graziella Cardoso Bonadia, Giovanni Moura de Holanda.......................................7 O papel da busca, recuperação e análise de informações de patentes no registro da propriedade intelectual em empresas de base tecnológica Juliano Salmar Nogueira e Taveira, Mariana Savedra Pfitzner, Francisco Henrique Papa..................21 Aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em uma rede óptica reconfigurável baseada em ROADMs Júlio César Rodrigues Fernandes de Oliveira, Giovanni Curiel dos Santos, Fábio Dassan dos Santos.............................................................................................................................................27 Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas Flávio Olmos Simões, Mário Uliani Neto, Jeremias Barbosa Machado, Edson José Nagle, Fernando Oscar Runstein, Leandro de Campos Teixeira Gomes......................................................................33 Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura Victor Alfonso Valenzuela Diaz, Isabela Vasconcelos de Carvalho Motta...........................................49 Análise dos efeitos biológicos e genômicos em amostras de sangue submetidas a níveis controlados de radiação emitida por sistemas de telefonia celular Antônio Marini de Almeida, Cássia de Lourdes Campanho, Raquel Mary Rodrigues, Vanessa Cristina Franco, Bruno Peres dos Santos, Juliana K. R. Heinrich...................................................................63 Propriedade intelectual do CPqD.......................................................................................................69
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 1-76, jan/jun 2009
Apresentação Temos o prazer de apresentar mais uma edição dos Cadernos CPqD Tecnologia. Criada para ser um veículo de difusão do conhecimento tecnológico, esta publicação é composta por artigos relacionados aos projetos de P&D conduzidos pelo CPqD, apresentando alguns resultados desses projetos. Para que um país seja grande, é necessário que a roda da inovação – pesquisa-desenvolvimentomercado – gire cada vez mais e que sua capacidade de transformar conhecimento em riqueza gere benefícios para toda a sociedade. O CPqD, com a criatividade de seus especialistas e com seu ambiente propício à inovação, procura contribuir para que esse mecanismo gire sem parar. O espírito inovador, que é uma constante nas realizações do CPqD, foi reconhecido em diversas oportunidades. Entre os destaques recentes, podemos citar: •
A União Internacional de Telecomunicações (UIT) publicou, no último mês de maio, uma recomendação sugerida pelo CPqD e submetida na forma de contribuição brasileira para estações terrenas de pequeno porte (VSAT) que operam com satélites. A recomendação, aprovada em nível mundial, deverá ser seguida por mais de cem países que fazem parte da UIT.
•
O projeto de sistema para transmissão de dados de monitoramento das linhas de transmissão de energia elétrica, desenvolvido pelo CPqD, foi escolhido entre outros 100 projetos de P&D como o terceiro melhor do V Citenel – Congresso de Inovação Tecnológica em Energia Elétrica, realizado em Belém, no mês de junho. O sistema combina as tecnologias de comunicação sem fio e fibras ópticas para transmitir informações sobre as condições da rede, proporcionando controle eficaz e enviando informações em tempo real sobre sua situação.
Para esta edição dos Cadernos foram avaliados e selecionados artigos sobre temas que julgamos ser de interesse e atualidade para a comunidade brasileira de telecomunicações e de tecnologia da informação. Desejamos a todos uma boa leitura.
Claudio A. Violato Vice-Presidente de Tecnologia
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 3, jan./jun. 2009
Prefácio Apresentam-se, neste oitavo número da revista Cadernos CPqD Tecnologia, seis novos artigos envolvendo trabalhos recentes nas mais diversas áreas de atuação em pesquisa e desenvolvimento do CPqD. O primeiro artigo, de Menezes e outros colaboradores, discute a abrangência dos indicadores de inclusão digital. O trabalho enfatiza a relevância das barreiras psicológicas, cognitivas e linguísticas no debate sobre inclusão digital, constatando que são escassos os indicadores referentes a essas barreiras. Dessa forma, contribui para a elaboração de políticas públicas que efetivamente estimulem o desenvolvimento da sociedade da informação. No segundo artigo, Salmar, Pfitzner e Papa descrevem uma metodologia de busca, recuperação e análise em bancos de dados gratuitos de patentes. Trata-se de um ferramental importante para empresas de base tecnológica, nas quais o conhecimento transformado em direito de propriedade pode representar vantagem competitiva para a inovação e para o capital intelectual da empresa. O terceiro artigo, de Oliveira, C. Santos e D. Santos, demonstra o aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em um cenário de rede óptica reconfigurável. Esse desenvolvimento propicia o aprovisionamento de circuitos ópticos, de maneira rápida, eficaz e confiável. O quarto artigo, de Simões e outros colaboradores, propõe uma técnica de compressão de fala baseada em quantização vetorial. Aborda aspectos relativos ao processamento de sinais de fala, mostrando como a técnica de quantização vetorial pode ser empregada para construir um codebook de fala. São também discutidas no artigo as estratégias de inicialização e treinamento da rede de Kohonen, usada na geração do codebook. No quinto artigo, Valenzuela e Motta descrevem um novo código corretor de erros baseado em uma estrutura descrambler-scrambler e analisam a sua eficiência, utilizando uma abordagem baseada nas características das sequências pseudoaleatórias de máximo comprimento. Os códigos corretores e detectores são utilizados de forma particular na transmissão interna de equipamentos. No sexto e último artigo, Almeida e colaboradores apresentam os efeitos biológicos produzidos em células expostas à radiação eletromagnética proveniente de sistemas de telefonia celular, por meio de investigação de instabilidades genômicas em culturas de amostras de sangue. Os resultados demonstram um efeito dose-dependente para a ocorrência de anomalias no DNA. Nossa revista confirma, no presente número, suas características de regularidade, diversidade de temas e interesse técnico-científico de seus artigos. Agradeço a cada um dos autores que participam deste exemplar e aos meus colegas do Fórum de P&D pelo cuidadoso trabalho de revisão.
João Marcos Travassos Romano Presidente do Fórum de P&D do CPqD
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 5, jan./jun. 2009
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital Esther Menezes, Graziella Cardoso Bonadia*, Giovanni Moura de Holanda O objetivo deste artigo é discutir a abrangência dos indicadores de inclusão digital na representação de seus múltiplos aspectos, num contexto em que a ampliação do acesso às tecnologias de informação e comunicação dá maior visibilidade às mais diversas barreiras de uso. Além das barreiras físicas e econômicas, ganham relevância no debate sobre a inclusão digital as barreiras psicológicas, cognitivas e linguísticas, que podem interferir na intensidade e qualidade da experiência de uso dessas tecnologias por um indivíduo. A relevância desses aspectos é evidente no contexto brasileiro, dotado de um perfil socioeconômico formado por uma proporção nada desprezível de indivíduos de baixa renda, com pouca ou nenhuma escolaridade, e de pessoas com deficiência. Apesar disso, grande parte dos indicadores existentes representa primordialmente o acesso físico às TICs e o aspecto tecnológico da produção e difusão dessas tecnologias. Ao avaliar a abrangência dos dados atualmente coletados, constata-se que são escassos os indicadores referentes às barreiras psicológicas, cognitivas e de usabilidade e acessibilidade. Com o intuito de preencher as lacunas existentes, propõe-se a coleta de dados complementares que explicitem os mais diversos aspectos da inclusão digital, contribuindo, dessa forma, para a elaboração de políticas públicas que efetivamente estimulem o desenvolvimento da sociedade da informação. Palavras-chave: Inclusão digital. Indicadores de TIC. Sociedade da informação. Usabilidade e acessibilidade. Barreiras cognitivas. Introdução A inclusão digital (ID) é um dos maiores desafios ao desenvolvimento da sociedade da informação no Brasil. Essa afirmação é embasada nos indicadores de acesso às tecnologias de informação e comunicação (TICs) que revelam a persistência de um elevado porcentual da população alheio aos seus benefícios. Em 2006, a proporção de indivíduos que já haviam acessado a Internet era de 33%, e as proporções de domicílios com computador e Internet eram de 20% e 14%, respectivamente (CGI, 2006). Mas a ID não é condicionada apenas por fatores referentes ao acesso físico às TICs, como a conectividade, a produção de hardware e software e a inovação tecnológica na indústria da informação, dados usualmente empregados para caracterizar a sociedade da informação. Fatores de outras naturezas, como a usabilidade e acessibilidade de websites e as barreiras psicológicas e cognitivas que podem impedir o uso dessas tecnologias pelo indivíduo, vêm à tona e ganham relevância à medida que a ampliação da oferta de acesso ao computador e à Internet se consolida. O objetivo deste artigo é justamente identificar lacunas no conjunto dos indicadores de ID que compõem os sistemas de métricas mais empregados no dimensionamento e na avaliação da sociedade da informação. Com base nas lacunas identificadas, discute-se a necessidade de levantamento de novos dados para
complementar os existentes. A adição de dados contemplaria aspectos relevantes da ID frequentemente negligenciados nas discussões sobre políticas públicas e iniciativas da sociedade civil voltadas a esse propósito. Cabe observar que este estudo é fruto de um levantamento feito com o propósito de subsidiar a atividade de planejamento da implantação em escala nacional dos serviços e soluções desenvolvidos no âmbito do projeto Soluções de Telecomunicações para Inclusão Digital (STID). De maneira geral, um conjunto de indicadores, que também reflete as particularidades da ID, deve servir tanto à operação eficiente e eficaz das soluções a serem implantadas nacionalmente quanto ao processo de planejamento de políticas mais genéricas de ID. 1
Comumente, o esforço dos programas governamentais e de iniciativas da sociedade civil para promover a ID é direcionado para a ampliação da disponibilidade de meios de acesso, isto é, computadores com acesso à Internet, para uso da população. Contudo, muitos estudos indicam que, embora condição necessária, os meios físicos não garantem por si só o pleno usufruto desses recursos. Ao investigar experiências malsucedidas de inclusão digital, Warschauer (2002) conclui que uma das principais causas de
*Autor a quem a correspondência deve ser dirigida: bonadia@cpqd.com.br Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
Em busca de conceitos abrangentes de inclusão digital
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
(2006) e Tambascia et al. (2006). Basicamente, o modelo representa as barreiras de acesso a equipamentos, de usabilidade e acessibilidade e de inteligibilidade. Vencidas essas barreiras, os usuários já podem usufruir os serviços e conteúdos disponíveis na sociedade da informação, mas é necessário ainda capacitá-los para produzir conteúdos. Com essa capacitação, os usuários podem, enfim, usufruir as potencialidades do mundo digital, representadas na Figura 1 como a camada “Sociedade da informação”. Tal camada consiste na efetiva fruição e produção de conteúdo e serviços eletrônicos para propósitos educacionais, profissionais e de lazer, bem como aqueles referentes à atuação dos indivíduos como cidadãos. O objetivo desse modelo de camadas é explicitar todos os tipos de barreiras à ID que precisam ser removidas. As camadas refletem as principais dificuldades que os indivíduos enfrentam para ter um pleno aproveitamento das TICs, abrangendo aquelas observadas com mais frequência em países em desenvolvimento e regiões mais carentes. O modelo foi formulado com base na realidade brasileira identificada a partir do perfil socioeconômico, cultural e de escolaridade. Sociedade da informação (consumo e produção de conteúdo)
Barreiras à inclusão
insucesso é a ausência de motivação dos indivíduos para o uso das TICs. Segundo o autor, a ID não é condicionada apenas aos recursos físicos, mas também aos recursos digitais, humanos e sociais. Tais elementos consistem no apoio da comunidade em que o indivíduo se insere, na estrutura institucional que lhe permite usufruir plenamente as TICs, e em conteúdo relevante e linguagem apropriada, que conferem ao usuário sentido e propósito para o uso da Internet. Disso se depreende que os fatores condicionantes para o sucesso das ações em prol da ID transcendem a presença de computador e a conexão à Internet, cuja disponibilização, por si só, já consiste em uma tarefa trabalhosa que consome razoáveis somas de recursos. Com efeito, um dos principais desafios apontados pela Sociedade Brasileira de Computação (SBC) na área computacional é o desenvolvimento de formas de interação entre pessoas e TICs que facilitem o “acesso do cidadão brasileiro ao conhecimento” (SBC, 2006:17)1. Nesse contexto, é de extrema importância adotar uma abordagem de análise de políticas que considere esses condicionantes para identificar quais são as principais barreiras à ID no Brasil. Já se observou na Introdução a presença limitada das TICs entre os brasileiros. Além do acesso ainda restrito, é possível identificar outros obstáculos importantes à ID plena com uma breve análise do perfil da população do País. Segundo Ávila e Holanda (2006), aproximadamente 37% da população é composta de analfabetos plenos ou funcionais. Além disso, perto de 25 milhões de pessoas apresentam alguma deficiência física, mental ou sensorial. Com relação aos dados das telecomunicações no Brasil, os autores observam que somente 9% dos municípios brasileiros dispunham de serviços de TV por assinatura e/ou banda larga, baseados em MMDS ou cabo, e menos de 30% dos municípios apresentavam banda larga em 2005. Além disso, grande parte das pequenas localidades não possuía provedor de acesso à Internet, o que revela deficiências no acesso, apesar dos avanços. Tais características, que impõem dificuldades ao usufruto das TICs mais complexas, foram agrupadas em camadas que correspondem aos tipos existentes de barreiras à ID, graficamente representadas na Figura 1, de acordo com o modelo apresentado em Holanda e Dall'Antonia
Inteligibilidade
Acessibilidade e usabilidade
Acesso a terminais e à web
Fonte: Holanda e Dall'Antonia (2006) e Tambascia et al. (2006).
Figura 1 Barreiras à inclusão digital
As barreiras de meios de acesso referem-se à falta de infraestrutura de telecomunicações, à deficiência de cobertura dos serviços baseados em TICs, à qualidade do serviço e aos custos para o usuário. Por sua vez, as barreiras de usabilidade e acessibilidade dizem respeito à ausência ou deficiência de recursos nas interfaces existentes que facilitam o uso por pessoas com deficiência visual, auditiva ou motora. Já as barreiras de inteligibilidade têm origem tanto no analfabetismo digital (isto é, falta de habilidade de uso das TICs) como na
____________________________ 1 Segundo a SBC, a disponibilidade de acesso às TICs “não é sinônimo de facilidade de uso e acesso universal...Existem barreiras tecnológicas, educacionais, culturais, sociais e econômicas, que impedem o acesso e a interação”. Por isso, um dos principais desafios da computação no Brasil é “vencer essas barreiras, por meio da concepção de sistemas, ferramentas, modelos, métodos, procedimentos e teorias capazes de endereçar, de forma competente, a questão do acesso do cidadão brasileiro ao conhecimento. Este acesso deve ser universal e participativo, na medida em que o cidadão não é um usuário passivo, o qual recebe informações, mas também participa da geração do conhecimento” (SBC, 2006:17).
8
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
escassez de conteúdo em linguagem compreensível a um público amplo. Todas essas barreiras impedem que os indivíduos usufruam os benefícios últimos da sociedade da informação. Como exemplo concreto de barreira à ID, tem-se a taxa de analfabetismo, tanto pleno quanto funcional, que constitui um entrave ao uso do computador e da Internet e que é representada pelas camadas de usabilidade e inteligibilidade. Outra possível barreira é a falta de conteúdo de algum interesse para grupos socialmente mais vulneráveis, o que é também refletido pela camada de inteligibilidade, comprometendo a experiência da fruição de conteúdo. Ao refletir todas as possíveis barreiras físicas, cognitivas, psicológicas, socioeconômicas e culturais à ID, o modelo de camadas representado na Figura 1 pode auxiliar na formulação e análise de políticas e no planejamento de ações para a superação dessas barreiras. Para operacionalizar esse auxílio, são necessários indicadores que revelem o estado em que as barreiras se encontram. O uso de indicadores confere objetividade ao estabelecimento de metas e à avaliação da eficácia e eficiência das ações propostas para alcançá-las. Na Seção 2, é feito um levantamento dos indicadores de ID presentes em sistemas de métricas da sociedade da informação. Discute-se também em que medida os indicadores refletem as barreiras à ID. 2
Presença de indicadores de ID nos sistemas de métricas da sociedade da informação
É ampla a diversidade de indicadores de mensuração das TICs. Em geral, emprega-se um conjunto de indicadores selecionados para representar um quadro amplo da sociedade da informação, englobando cobertura, acesso e oferta de serviços baseados em TICs. Atualmente, existe uma ampla gama de indicadores de TICs compondo diferentes sistemas de métricas2. Tal diversidade decorre do fato de que propostas distintas de mensuração foram concebidas a partir de objetivos distintos. Assim, enquanto alguns sistemas enfatizam a difusão das TICs entre a população de um país, outros privilegiam a dimensão do comércio eletrônico. Como exemplos dos primeiros esforços de mensuração da sociedade da informação e da brecha digital entre países, têm destaque o GDI, INEXSK, ICTDI, Infostate, DAI, CAIBI e a Brecha
Digital, amplamente divulgados3. Nos últimos anos, tanto em nível mundial como na América Latina, conforme Olaya e Peyrano (2007), deu-se início a um movimento de harmonização da coleta de dados e da construção de indicadores de TICs, que culminou na criação do Partnership on Measuring ICT for Development. Participam dessa iniciativa grupos como ITU, OCDE, UNCTAD, Unesco, Banco Mundial e comissões regionais das Nações Unidas (CEPAL, ESCWA, ESCAP, ECA), com o objetivo de estabelecer um conjunto de indicadores globais de acesso, uso, potencial de aproveitamento das TICs (e-readiness) e os impactos socioeconômicos a elas associados (PORCARO, 2006). Das discussões entre os institutos de pesquisa dos países envolvidos promovidas pelo Partnership, estabeleceu-se a lista dos chamados Indicadores-Chave de TIC (Core ICT Indicators). Escolhidos em comum acordo entre os países participantes, o objetivo foi incentivar a incorporação desses indicadores aos dados coletados em censos e pesquisas nacionais de domicílios. Em um encontro mundial promovido pela Cúpula da Sociedade da Informação (World Summit on the Information Society, WSIS) em 2005, propôsse um índice de mensuração da sociedade da informação para fins de comparação internacional, o Digital Opportunity Index (DOI), cujos indicadores fazem parte do conjunto dos Indicadores-Chave de TIC. Além dos sistemas de métricas resultantes do esforço de homogeneização internacional dos indicadores, outros sistemas se destacam. O Network Readiness Index (NRI), do World Economic Forum (DUTTA et al., 2005), e o Egovernment Readiness (UN-UNPAN, 2005) merecem menção por abordar aspectos como o ambiente regulatório e o grau de desenvolvimento do governo eletrônico (e-gov), respectivamente. Por sua vez, o Statistical Indicators Benchmarking the Information Society (SIBIS) consiste em uma proposta de mensuração das TICs em âmbito europeu. O mesmo projeto propôs o DIDIX, um índice que condensa indicadores básicos de uso de TIC para medir a desigualdade digital entre subgrupos populacionais (HUSING; SELHOFER, 2004). Vale destacar os trabalhos de coleta periódica de dados referentes à sociedade da informação, desenvolvidos pelo Eurostat, cuja metodologia serviu de base para pesquisas em países não europeus, incluindo aquelas feitas pelo CGI (2006) no Brasil.
_____________________________ 2 Para obter mais detalhes sobre o estado da arte dos sistemas de métricas, consulte Menezes et al. (2007a). 3 Tais sistemas foram apresentados, respectivamente, em Wolcott et al. (2001); Mansell e Wehn (1998); UNCTAD (2003); Sciadas (2005); ITU (2003); CAIBI (1999); ALADI (2003). Uma síntese desses sistemas é apresentada por Menezes et al. (2007a).
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
9
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
apresenta uma grande variedade de indicadores de fruição, propondo uma avaliação mais profunda dos aspectos qualitativos de uso. Por fim, a subcamada de produção de conteúdo é pouco representada pelos sistemas atuais de mensuração de TIC. O indicador mais frequente é o número de domínios de Internet, que representa uma aproximação da quantidade acumulada de conteúdo nacional produzido e disponibilizado na rede. Em geral, destacam-se duas características dos sistemas de métricas da sociedade da informação: 1) a camada de disponibilidade de acesso é a mais bem representada pelos indicadores presentes nos sistemas de métricas existentes, seguida da camada de fruição de conteúdo; 2) as demais barreiras são pobremente representadas. A maior lacuna é observada na camada de usabilidade e acessibilidade, o que certamente decorre da dificuldade de se levantar as informações relacionadas. A identificação dos indicadores de ID presentes nos sistemas de métricas da sociedade da informação serve ao propósito de verificar o estado atual dos indicadores mais difundidos e seu potencial de aplicação em uma análise das políticas de ID. Não se pretende julgar incisivamente os méritos de cada sistema por representar (ou não) as diversas barreiras à ID, já que foram criados em outros contextos e com propósitos distintos. O objetivo é apenas verificar sua adequabilidade aos propósitos do presente estudo. Na Seção 3, apresenta-se uma relação (não exaustiva) dos dados de TIC existentes no Brasil. Vale observar que alguns deles compõem os sistemas de métricas apresentados nesta seção. Em seguida, é verificado se os dados existentes são suficientes para revelar a intensidade das barreiras à ID atualmente existentes no País.
Por fim, o projeto Benchmarking the Information Society: e-Europe Indicators for European Regions (BISER) apresenta uma proposta de mensuração regionalizada das TICs. Nesse sistema, destacam-se o conjunto de indicadores que retratam o não uso da Internet e suas razões mais prováveis, aspectos pouco tratados pelos sistemas de métricas existentes (BISER, 2004). Cada um dos sistemas supracitados apresentam indicadores que refletem, em diferentes graus, as barreiras à ID propostas por Holanda e Dall'Antonia (2006). Na Tabela 1, encontra-se uma avaliação desses sistemas em termos de representatividade de cada camada. Pelas informações constantes na Tabela 1, verificam-se ausências de indicadores importantes da sociedade da informação com relação às barreiras à ID. O caso da usabilidade e acessibilidade é o que mais se destaca: poucos sistemas, como o SIBIS e o BISER, apresentam indicadores que refletem esses aspectos. Essas informações são de difícil mensuração: em geral, são obtidas por meio de pesquisa qualitativa que verifica a existência de orientação para o desenvolvimento de sítios de Internet acessíveis para o atendimento ao público junto a empresas e a organismos do setor público. Embora o aspecto da inteligibilidade seja representado por indicadores de alfabetização e de matrículas em cursos de nível superior, presentes em alguns dos sistemas de métricas avaliados, são escassos os indicadores referentes a esforços de alfabetização digital e à existência de conteúdos local e contextualizado que confiram maior autonomia de uso aos indivíduos. Por outro lado, como indicador de fruição de conteúdo, todos os sistemas de métricas avaliados apresentam o percentual de usuários de Internet. Os mais ricos em indicadores dessa categoria são o SIBIS e o BISER, seguidos por Eurostat e Indicadores-Chave de TIC. O GDI
Tabela 1 Visão geral dos sistemas de métricas segundo sua representatividade das camadas de ID
GDI
INEXSK
ICTDI
Infostate
DAI
CAIBI
DOI
Eurostat
Core ICT ind.
NRI
SIBIS-DIDIX
BISER
Pobreza digital
O sistema de métricas contempla a camada de ID?
Prod. conteúdo Soc. Informaç. Fruição conteúdo
P
P
N
P
N
P
N
P
P
P
P
P
N
S
P
P
P
P
P
P
S
S
P
S
S
S
Inteligibilidade
N
P
N
P
P
P
N
P
P
P
S
S
N
Usabilidade e acessibilidade N
N
N
N
N
N
N
N
N
N
P
P
P
P
P
P
P
P
S
S
S
S
S
S
P
Camadas de ID
Disponibilidade de acesso
P
Legenda: S = sim; N = não; P = parcialmente.
10
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
3
Dados secundários e representação das barreiras à ID
A partir de um levantamento dos dados secundários existentes no Brasil sobre a sociedade da informação, foram identificados e selecionados aqueles que estão diretamente relacionados com a ID. Para isso, estabeleceu-se uma classificação conforme as barreiras à ID que
os dados identificados representam. Na Tabela 2, apresentam-se os dados referentes a indicadores de produção e fruição de conteúdo, que caracterizam uma sociedade da informação plena. Nota-se uma forte presença de indicadores referentes à fruição e poucos indicadores de produção de conteúdo, da mesma forma que os sistemas de métricas vistos na seção anterior.
Tabela 2 Indicadores da sociedade da informação Fonte
Participação na sociedade informacional: produção e fruição de conteúdo
CGI4
-
Proporção de indivíduos que já utilizaram um computador Proporção de indivíduos que usaram um computador – último acesso Frequência de uso individual do computador Proporção de indivíduos que já acessaram a Internet Proporção de indivíduos que acessaram a Internet – último acesso Frequência do acesso individual à Internet Tempo gasto na Internet por semana Propósitos das atividades realizadas na Internet Proporção de indivíduos que usam a Internet para se comunicar Proporção de usuários que desenvolvem atividades de comunicação na Internet Proporção de indivíduos que usam a Internet para buscar informações Proporção de usuários que desenvolvem atividades de busca de informações na Internet Proporção de indivíduos que usam a Internet para o lazer Proporção de atividades de lazer desenvolvidas na Internet Proporção de indivíduos que usam a Internet para serviços financeiros Proporção de atividades desenvolvidas na Internet relativas a serviços financeiros Proporção dos motivos pelos quais nunca utilizou a Internet Proporção dos motivos pelos quais não utilizou a Internet recentemente Proporção de indivíduos que utilizaram governo eletrônico nos últimos 12 meses Serviços de governo eletrônico utilizados Serviços de governo eletrônico que gostaria de utilizar Proporção dos motivos para não utilizar governo eletrônico Proporção de indivíduos que usaram telefone celular nos últimos três meses Proporção de indivíduos que possuem telefone celular Tipo de telefone celular: pré-pago x pós-pago Proporção de indivíduos que possuem telefone celular com acesso à Internet Proporção de atividades realizadas pelo telefone celular Tipo de conta de e-mail utilizada Quantidade de contas de e-mail utilizadas Principal conta de e-mail utilizada Proporção de indivíduos que já compraram produtos e serviços pela Internet Motivos mais frequentes para não comprar pela Internet Proporção de indivíduos que já divulgaram ou venderam algum bem ou serviço pela Internet Proporção de indivíduos que usam Internet para educação e atividades desenvolvidas Número de domínios de Internet
IBGE5
- Pessoas que utilizaram ou não a Internet nos últimos três meses, por grandes regiões, sexo, grupos de idade, anos de estudo, estudantes, situação de ocupação, estados, regiões metropolitanas e classes de rendimento - Motivo da não utilização da Internet - Frequência de utilização da Internet - Finalidade do acesso à Internet
Funredes 6
- Presença relativa do português na Internet (em relação ao inglês)
4 Fonte: Comitê Gestor da Internet no Brasil (http://www.cgi.br:). 5 Fonte: Instituto Brasileiro de Geografia e Estatística (http://www.ibge.gov.br). 6 Fundación Redes y Desarrollo, Observatorio de la Diversidad Linguística y Cultural en la Internet (http://www.funredes.org/LC).
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
11
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
como do grau de dificuldade de assimilação do conteúdo de Internet, já que boa parte dele pode depender do domínio de outras línguas pelo usuário. Porém, não faz distinção entre o conteúdo em língua portuguesa de origem brasileira e os dos demais países lusófonos. Com relação ao aspecto da inteligibilidade, há pouca informação disponível. Os dados existentes, que poderiam ser utilizados para representar algumas características dessa camada de ID, referem-se às informações relativas à alfabetização digital ou às habilidades dos indivíduos em usar computador e Internet, e às formas de obtenção dessas habilidades. O CGI reúne esses indicadores, relacionados na Tabela 3. Com esses dados de inteligibilidade, é possível compor um quadro sobre o grau de alfabetização digital da população brasileira, a quantidade de pessoas que já realizaram cursos de informática e quais as suas habilidades de uso de computador e Internet. Contudo, essas informações não revelam muito sobre a situação das pessoas com nível baixo de alfabetização ou com deficiência, nem em que medida os treinamentos disponíveis conseguem atender a esse público específico. Quanto à usabilidade e acessibilidade, não há, no momento, dados secundários referentes a esses aspectos que sejam comumente levantados por pesquisas de grande abrangência geográfica e que se encontrem disponíveis para consulta. Por fim, dados sobre meios físicos de acesso são os mais abundantes. Isso é compreensível, já que constituem o aspecto mais tangível da ID. Compõem o conjunto de indicadores de meios de acesso aqueles referentes à presença de computador, Internet e celular nos domicílios, aos locais de acesso a computador e Internet e à conectividade. Esta última refere-se à disponibilidade de infraestrutura de rede nas localidades, como municípios com banda larga, presença de telecentros nos municípios e escolas com computador e Internet. Na Tabela 4, são apresentados os principais indicadores de acesso às TICs atualmente disponíveis.
Os dados fornecidos pelo CGI (2006) apresentam características do uso da Internet pelos indivíduos, como frequência e propósitos de uso e motivos da não utilização, além dos principais serviços on-line referentes a entretenimento, governo e comércio eletrônicos. Por meio desses dados, é possível conferir as diferenças qualitativas entre os usuários com relação ao uso que fazem da Internet. Esse é, aliás, um aspecto da sociedade informacional que recentemente passou a receber mais atenção. Além de haver indivíduos com e sem acesso à Internet, há entre os usuários aqueles que a usam com uma frequência maior, com propósitos distintos e beneficiando-se mais ou menos em decorrência de uma série de fatores que caracterizam o seu uso. Tal gradação de uso das TICs é um aspecto altamente relevante para a discussão sobre políticas de ID. Evidenciam-se não somente a brecha digital entre os que usam e não usam as TICs, mas também as diferenças quanto à qualidade e intensidade de uso e aos seus propósitos. Para destacar essa nuança na análise, Hargittai (2004) emprega o termo “desigualdade digital” como alternativa aos termos de conotação dicotômica “brecha” ou “exclusão”, que enfatizam as categorias “usuário” e “não usuário”. Tal gradação qualitativa também acomete as demais camadas. Por exemplo, na camada de acesso, Hargittai refere-se à qualidade dos equipamentos (capacidade de memória, velocidade e armazenamento do PC) e à velocidade de conexão. Apesar de haver razoável quantidade de dados coletados sobre usufruto da Internet, poucos referentes à produção de conteúdo encontram-se disponíveis. Há o número de domínios de Internet, que fornece uma ideia incompleta sobre a quantidade de websites produzidos nacionalmente. Além desse indicador, a Funredes divulga a quantidade de conteúdo de Internet em português. Esse indicador merece menção por dar uma ideia das dimensões da produção de conteúdo nacional e local, bem
Tabela 3 Indicadores de inteligibilidade Fonte
Indicadores de inteligibilidade - Habilidades relacionadas ao uso do computador - Forma de obtenção das habilidades para uso do computador
CGI
- Proporção de indivíduos que realizaram cursos de informática - Motivos pelos quais não fez cursos de computação - Habilidades com computador suficientes para o mercado de trabalho - Habilidades relacionadas ao uso da Internet
12
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
Tabela 4 Indicadores da camada de meios de acesso Fontes
Características do acesso: conectividade e difusão - Proporção de domicílios que possuem equipamentos TIC - Proporção de domicílios com computador - Tipo de computador presente no domicílio - Tipo de sistema operacional utilizado – computador de mesa - Proporção de domicílios com acesso à Internet - Tipo de equipamento para acesso à Internet no domicílio - Tipo de conexão para acesso à Internet no domicílio
CGI
- Velocidade da conexão à Internet utilizada no domicílio - Formas de distribuição do acesso à Internet no domicílio - Barreiras ao acesso à banda larga no domicílio - Barreiras ao acesso à Internet no domicílio - Local de uso individual do computador - Local de acesso individual à Internet - Valor máximo declarado para aquisição de computador - Valor máximo declarado para aquisição de acesso à Internet - Local de acesso à Internet no período de referência dos últimos três meses
IBGE
- Tipo de conexão à Internet no domicílio - Tabelas sobre posse de telefone móvel celular para uso pessoal - Municípios com banda larga - Municípios com TV por assinatura
Teletime
- Terminais públicos por município - Telefonia móvel: operadoras e rede de dados
IBICT INEP-MEC CGI
- Presença de backbones - Centros de acesso público governamental nos municípios - Escolas com computador e Internet - Número de hosts - Número de domínios brasileiros na Internet - Percentual da população coberta por telefonia celular - Tarifas de acesso à Internet (20 h/mês), US$, % renda per capita - Tarifa de celular (100 min/mês), US$, % renda per capita - Linhas de telefone fixo por 100 habitantes - Assinantes de telefone celular por 100 habitantes
ITU
- Computadores por 100 habitantes - Assinantes de Internet fixa/100 habitantes - Assinantes de Internet móvel/100 habitantes - Assinantes de Internet banda larga/100 habitantes - Assinantes de Internet móvel banda larga/100 habitantes - Banda passante internacional por habitante
Vale mencionar que os indicadores extraídos de ITU (2005), presentes na Tabela 4, compõem o Digital Opportunity Index (DOI), índice proposto pela ITU para comparação internacional da difusão das TICs e da conectividade. Embora os dados de acesso sejam abundantes, a dificuldade de obtê-los é maior quando se trata de pequenos municípios. Os dados fornecidos por Teletime (2008), por exemplo, referem-se a
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
municípios com mais de 24 mil habitantes. De um universo de quase 5,6 mil municípios, 4 mil apresentam até 20 mil habitantes. Em geral afastadas e, em alguns casos, de difícil alcance pelas redes físicas e sem fio (excetuando-se o satélite), essas pequenas localidades apresentam retornos de escala reduzidos para os serviços de comunicações e são, justamente por isso, as mais afetadas pela exclusão digital.
13
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
4
Identificando novos indicadores para a avaliação de políticas de ID
Conforme visto na Seção 2, com base na observação dos dados disponíveis sobre a sociedade da informação e do estado da inclusão digital no Brasil, conclui-se que os dados sobre acesso e conectividade são os mais abundantes e diversificados. Constituem a principal base de índices e indicadores comumente usados em sistemas de métricas e benchmarkings internacionais. O conjunto de indicadores brasileiros disponíveis também é rico em informações sobre o uso que se faz da Internet e do computador, em especial os dados fornecidos pelo CGI (2006). No entanto, alguns aspectos fundamentais da ID figurados no modelo de camadas encontram pouca representação entre os dados atualmente coletados. São eles a inteligibilidade, a usabilidade e a acessibilidade e o conteúdo nacional produzido para a Internet. A seguir, são feitas considerações sobre a obtenção desses dados de forma indireta, deduzindo alguma informação a partir do que já existe. Além disso, discutem-se a necessidade de coletar novos dados e os meios para a coleta7. Como alternativas de mensuração do conteúdo nacional produzido, sugere-se verificar as estatísticas de uso da Internet que refletem a geração de conteúdo pelo próprio usuário. Exemplos de atividades geradoras de conteúdo desse tipo são a participação em salas de batepapo e fóruns de discussões, o compartilhamento de arquivos e a criação de websites pessoais. O OECD (2007) define o conceito de conteúdo gerado pelo usuário (usercreated content) como aquele que tem origem criativa e fora do contexto profissional, disponibilizado ao público por meio de sítios especializados em abrigar fotos, imagens, textos, música e vídeos enviados por usuários, tais como blogs, textos de colaboração (wikis), podcasts, redes sociais, sítios de compartilhamento de conteúdo, sítios de relacionamento e sítios educacionais (criados por escolas e universidades), entre outros. Por enquanto, as formas de mensuração são rudimentares. Mas já existem alguns levantamentos internacionais e discussões sobre a crescente relevância econômica e social do conteúdo gerado pelo usuário. No Brasil, somente alguns desses dados são contemplados nos levantamentos do CGI (2006), sob a denominação de “atividades desenvolvidas na Internet – comunicação”. Com relação ao aspecto da inteligibilidade, uma maneira indireta de obter informações seria comparando as habilidades e as atividades de Internet de grupos de usuários com diferentes
médias de anos de estudo. Quanto mais complexa a atividade e menor o emprego de recursos de usabilidade e de linguagens adaptadas, maior poderá ser a dificuldade de uso pelos menos escolarizados. Por isso, o cruzamento entre as variáveis “anos de estudo” e “habilidades” pode revelar em que medida a escolaridade afeta a capacidade de realizar atividades como envio de e-mail, compras e serviços de governo eletrônico. Com o auxílio desse indicador indireto, políticas de ID podem ser concebidas, de um lado, para estimular o aprendizado digital entre o público socialmente mais vulnerável e, de outro, ações podem ser tomadas para estimular o desenvolvimento de interfaces mais intuitivas, que facilitem o uso dos serviços de Internet. Praticamente não existem elementos para avaliar o uso de TICs por pessoas com deficiência, já que as pesquisas atualmente conduzidas não verificam se o entrevistado apresenta essa condição. No momento, conta-se somente com a informação de que menos de 1% dos que nunca usaram Internet aponta como motivo ter alguma deficiência física (CGI, 2006). É necessário saber em que medida as deficiências atuam como barreira de acesso à Internet, para que se possa propor mecanismos que atenuem as dificuldades desses usuários. Por isso, sugere-se que tal aspecto seja investigado em pesquisas futuras capazes de identificar a existência de relação entre deficiência e acesso às TICs. O percentual de pessoas com deficiência que acessam a Internet pode ser acrescentado a futuras pesquisas. Esse pode ser um indicador da necessidade de se disponibilizar recursos com interfaces e tecnologias adequadas a pessoas com deficiência. E a evolução no tempo do número de usuários de Internet entre esses grupos mais vulneráveis seria o indicativo de sucesso das políticas propostas. Quanto à dificuldade de usuários com níveis precários de alfabetização, uma forma de avaliála seria por meio do número de pessoas de baixa escolaridade que acessam computador e Internet e sua evolução no tempo. O percentual de pessoas que usam computador e Internet por escolaridade pode ser usado como um indicador indireto da existência de recursos que atendam usuários não alfabetizados, já que a escolaridade pode estar associada à dificuldade de um usuário compreender o conteúdo e a lógica de navegação de um website. Também caberia avaliar se esses indivíduos acessam sempre os mesmos conteúdos e suas características. Como possíveis caminhos para o aperfeiçoamento dos indicadores e dos instrumentos de coleta de dados, vale mencionar a proposta de Hargittai (2005) para a medição
______________________________ 7 Tais considerações tomam por base o estudo feito por Menezes et al. (2007b).
14
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
das habilidades dos usuários de Internet e da desigualdade entre eles. O grau de habilidade pode ser medido por meio de testes de avaliação do desempenho do uso na Web. A vantagem desse procedimento reside na eliminação do viés da autopercepção dos usuários, que, apesar de sua imprecisão, é hoje a fonte de informação sobre habilidades das pesquisas atuais. Contudo, trata-se de uma forma mais custosa de pesquisa e apresenta dificuldades de ser posta em prática. Para viabilizá-la, esse tipo de pesquisa pode ser feito em caráter complementar aos dados tradicionalmente coletados. Um exemplo de pesquisa qualitativa é descrito em Hargittai (2004). Nesse estudo, é analisado o comportamento dos usuários ao navegar na Internet, verificando as habilidades em localizar conteúdos e a capacidade de entender a informação obtida. Outro exemplo é o estudo de Santaella (2004), que observa o comportamento de usuários de Internet com o intuito de detectar quais são as habilidades perceptivas e cognitivas requeridas na experiência de navegação que a diferencia das experiências de usufruto de outras mídias, como o livro e a televisão. Se bem conduzidas, essas pesquisas podem revelar peculiaridades da ID que podem ter grande relevância na formulação de políticas dedicadas ao estímulo ao uso de TICs mais complexas, como a Internet, por pessoas com níveis diversos de familiaridade com as mídias digitais. Para coletar dados de usabilidade e acessibilidade, o principal caminho seria avaliar os sítios de Internet. Como primeiro passo, verifica-se, por exemplo, se a construção dos sítios segue algum padrão ou norma de usabilidade e acessibilidade. Alguns estudos exemplificam como obter esse tipo de dado. Um deles é o de Marincu e McMullin (2004), que realizaram uma avaliação da acessibilidade de sítios selecionados com base nos padrões descritos pelo W3C Web Content Accessibility Guidelines (WCAG 1.0). A avaliação utiliza o software Bobby WorldWide, desenvolvido para testes automáticos de aderência de sítios aos padrões do W3C, semelhantemente à avaliação feita em UN-UNPAN (2005) e Velleman et al. (2007). A conclusão desse estudo é que poucos sítios de Internet oriundos de instituições públicas e privadas nos países europeus oferecem um nível satisfatório de acessibilidade: entre 94% e 99% dos sítios testados apresentam alguma falha. Outro estudo que propõe uma avaliação abrangente de serviços públicos on-line é apresentado por EPAN (2005). Sua metodologia compreende entrevistas com os formuladores e implementadores de políticas (policy makers) para levantar informações sobre estratégias
nacionais, arcabouços legais, monitoração, treinamento, ferramentas e sistemas de certificação relativos a serviços e aplicações de governo eletrônico (e-gov). Inclui também avaliações manuais e automatizadas de sítios governamentais na Internet, valendo-se de ferramentas baseadas em iniciativas mundiais de padronização dos critérios de acessibilidade online. Na avaliação preliminar feita no âmbito desse estudo, a verificação automática revelou que 70% dos websites apresentam falhas generalizadas, mostrando que apenas uma minoria atende aos critérios de acessibilidade. Tal padrão observado no setor público se aplica a sítios de Internet oriundos do setor privado. Apenas dois, entre os 25 países europeus pesquisados, apresentam efetivamente planos governamentais para ampliar a acessibilidade dos serviços de governo eletrônico. Por outro lado, mais da metade deles prevê, em sua legislação, acesso inclusivo a websites. Além disso, 9 entre 24 países oferecem incentivos legais a sítios de Internet para atingirem um patamar mínimo de acessibilidade. E mais da metade dos países já monitora a acessibilidade de seus sítios de Internet governamentais. O estudo aponta os países com as melhores práticas (Austrália, Canadá, Hong Kong) e apresenta recomendações de políticas, como a avaliação periódica dos websites, o que requer o estabelecimento de um conjunto de indicadores. Também no Brasil existem iniciativas para verificar a acessibilidade on-line. Um exemplo é o desenvolvimento de aplicativos de avaliação automática, como o DaSilva8. Mais recentemente, foi divulgado um estudo de medição da qualidade dos serviços de governo eletrônico conduzido pelo Departamento de Governo Eletrônico do Ministério do Planejamento, Orçamento e Gestão (DGE-SLTIMPOG, 2007). A metodologia empregada nesse estudo utiliza indicadores referentes a: maturidade do serviço eletrônico, comunicabilidade, multiplicidade de acesso, níveis de acessibilidade, disponibilidade, confiabilidade e transparência. Em uma avaliação-piloto, foram coletados dados sobre os serviços mais usados pela população, como declaração de imposto de renda, consulta a CPF, emissão de segunda via de IPTU e busca por postos municipais de saúde. A avaliação da usabilidade e acessibilidade desses serviços pode fornecer indicadores que retratam o estado em que se encontra essa camada de ID e facilitar o estabelecimento de metas para implementar melhorias. Aplicadas em nível nacional, as avaliações difundiriam conhecimento sobre o nível de usabilidade e acessibilidade dos serviços de e-gov brasileiros. Isso colaboraria para a
_____________________________ 8 DaSilva encontra-se disponível para uso em http://www.dasilva.org.br/.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
15
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
formulação de políticas mais direcionadas, servindo inclusive de modelo de usabilidade e acessibilidade aos serviços eletrônicos privados. Muitas das sugestões de levantamento de dados aqui apresentadas requerem mudanças nas metodologias atuais de pesquisa (por exemplo, introduzir novos elementos nos questionários das principais pesquisas feitas atualmente no Brasil). Enquanto isso não ocorre, é possível desenvolver pesquisas de menor porte e a custos não elevados para verificar os aspectos referentes às barreiras à ID. Pesquisas de dimensões reduzidas apresentam resultados mais difíceis de generalizar, mas podem fornecer informações interessantes em caráter comparativo (isto é, comparando-se pesquisas realizadas periodicamente). Na ausência de recursos para conduzir pesquisas primárias junto à população em geral, tais pesquisas poderiam ser conduzidas junto aos usuários de telecentros, por meio, por exemplo, de questionários aplicados via Internet ou pelos monitores dos telecentros, incluindo, na medida do possível, os não usuários dos bairros vizinhos. Esse procedimento é proposto partindo do pressuposto de que telecentros, e mesmo locais
de acesso pago à Internet (como LAN houses e cibercafés), podem ser usados como instrumento de políticas para a ID. Outra sugestão complementar é incentivar os levantamentos de dados junto a telecentros (como o que o governo dispõe em www.ibict.gov.br para cadastro de telecentros), para verificar, além do perfil de seus usuários, a proporção dos que disponibilizam recursos ergonômicos e se as suas instalações apresentam acessibilidade física. Essas informações mostrarão se as medidas que visam a facilitar o uso da Internet pelo público-alvo têm surtido efeito, e se o uso da Internet por esse público-alvo evolui de modo a obter um proveito maior do que é ofertado pela sociedade da informação, o que caracteriza a plena ID. Na Tabela 5, apresentam-se sugestões de novos indicadores a serem medidos em pesquisas primárias para complementar os indicadores existentes, apresentados na seção anterior. Muitas das sugestões são oriundas de pesquisas já realizadas (consulte, por exemplo, Neri, 2006) para verificar a efetividade dessas iniciativas para o propósito de ID e cobrir os aspectos aqui discutidos.
Tabela 5 Indicadores complementares de ID
Camada: sociedade informacional - Perfil socioeconômico dos usuários de computador e Internet (incluindo a existência de deficiência física e sensorial) - Monitoramento do tempo médio em que os usuários utilizam o acesso à Internet - Tempo de cadastro dos usuários no telecentro - Quantidade de usuários cadastrados - Quantidade diária de usuários que frequentam a iniciativa - Frequência de uso - Motivos para frequentar o telecentro - Horários habituais de uso do telecentro - Tempo de uso - Serviços utilizados (Skype, e-mail, mensagens instantâneas; sítios de notícias, variedades, compras, busca de informações; busca de emprego; criação de website pessoal; banco eletrônico; governo eletrônico; jogos; download de filmes, música, software; atualização de blogs e fotoblogs; uso de áudio/videoconferência; utilização de planilha e editor de texto; notícias; televisão; rádio; reclamações de serviços, etc.) - Tipo de conteúdo mais acessado - Serviços de e-gov utilizados: declaração de isento de IR, consulta de IPVA, consulta de multas de trânsito, etc. - Percepção do usuário: Internet é fácil ou difícil de usar? Atitude do usuário em relação ao computador/Internet - Benefícios do uso do computador/Internet apontados pelo usuário - Pretende continuar usando o telecentro? - Melhorias sugeridas para o telecentro - Criação de conteúdo pelo usuário: textos, fotos, música, vídeos, jornalismo cidadão
16
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
Tabela 5 Indicadores complementares de ID (continuação)
Camada de inteligibilidade -
Cursos mais frequentados Presença de monitor Já precisou pedir auxílio ao monitor? Avaliação do monitor e da ajuda do monitor Cursos de informática – Internet, ferramentas Office, outros Uso de segunda língua (inglês); para aqueles que não sabem inglês, se sentem que a falta dessa habilidade dificulta ou limita o aproveitamento da Internet - Acesso a conteúdos locais e culturalmente contextualizados Camada de usabilidade e acessibilidade - Existência de equipamentos e aplicativos adaptados para pessoas com deficiência (teclados especiais, leitores de tela, mesa para computador apropriada para cadeirantes, etc.) - Presença de recursos e características acessíveis nas instalações do telecentro (rampa de entrada, etc.) Camada de acesso -
Largura de banda utilizada para acesso à Internet, por computador Especificações dos computadores (memória, processador, HD, clock) Horários de pico Acessou computador/Internet de outros lugares? Já acessou Internet ou e-mail pelo celular? Dados complementares
- Perfil do usuário: idade, sexo, raça, escolaridade, renda familiar, deficiência - Uso de outras TICs (celular, rádio, televisão) - Hábitos de leitura do usuário Fonte: Neri (2006); OECD (2007); CGI (2006).
O monitoramento dos indicadores, tanto primários quanto secundários, ao longo do tempo, contribui para a identificação da propensão dos indivíduos a utilizar a Internet e também para a identificação dos pontos problemáticos (por exemplo, interfaces e linguagens empregadas em sítios de serviço público que requerem remodelamento). Conclusão Para o efetivo planejamento e avaliação de políticas de promoção da inclusão digital no contexto brasileiro, é necessário utilizar indicadores que representem integralmente todos os aspectos relativos à ID. Neste trabalho, identificou-se a ausência de informações relevantes entre os dados atualmente coletados com o auxílio de um modelo de camadas de ID. Constatou-se que há uma abundância de dados secundários referentes às camadas de fruição e produção de
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
conteúdo (sociedade informacional) e acesso, alguns dados sobre inteligibilidade e raros dados sobre usabilidade e acessibilidade. Além disso, observa-se que mesmo os dados facilmente encontrados geralmente se referem aos municípios com mais de 20 mil habitantes. Embora as barreiras de ID sejam representadas apenas parcialmente pelos indicadores existentes, boa parte desses indicadores pode ser aproveitada para esse propósito. A partir das lacunas existentes no conjunto de indicadores de ID, ficou clara a necessidade de se identificar novos dados para complementar o leque de informações pertinentes ao planejamento de políticas públicas. Para cobrir tais lacunas, sugeriu-se um conjunto de dados primários a serem coletados periodicamente. Tais dados permitiriam verificar de que modo o uso das TICs – especialmente do computador e da Internet – evolui no tempo, identificando as principais barreiras à ID e as ações mais
17
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
adequadas para reduzi-las. Cabe lembrar, contudo, que a introdução de novos indicadores em levantamentos primários incorre em custos adicionais para a sua obtenção. A decisão de incorporar novos indicadores passa, portanto, pela análise do trade-off entre os custos de obter a nova informação e o ganho em conhecimento que a nova informação agregará à atividade de planejamento. A motivação que está na origem deste estudo consiste na identificação dos indicadores a serem monitorados nos testes de campo do STID. Tais indicadores subsidiarão as etapas previstas referentes ao planejamento nacional da implantação dos serviços desenvolvidos no âmbito desse projeto. Além de atender aos propósitos específicos do projeto STID, espera-se oferecer novos elementos para o planejamento e a avaliação de políticas gerais de ID, de modo que lance luz sobre todos os aspectos necessários à superação das principais barreiras à ID, dado o perfil da população brasileira e o contexto socioeconômico do País.
DGE-SLTI-MPOG (Departamento de Governo Eletrônico – Secretaria de Logística e Tecnologia da Informação – Ministério do Planejamento, Orçamento e Gestão). Indicadores e métricas para avaliação de e-Serviços/Departamento de Governo Eletrônico. Brasília: MP, 2007.
Agradecimento
HOLANDA, G. M.; DALL'ANTONIA, J. C. An Approach for e-inclusion: Bringing illiterates and disabled people into play. Journal of Technology Management and Innovation, v. 1, n. 3, 2006.
Este trabalho recebeu suporte do Fundo para o Desenvolvimento Tecnológico das Telecomunicações (FUNTTEL). Referências ASOCIACIÓN LATINOAMERICANA DE INTEGRACIÓN (ALADI). La brecha digital y sus repercusiones en los países miembros de la ALADI. ALADI/SEC/Estudio, n. 157. Rev 1, jul. 2003. ÁVILA, I. M. A.; HOLANDA, G. M. Inclusão digital no Brasil: uma perspectiva sociotécnica. In A.A. Souto, J.C. Dall'Antonia & G.M.Holanda (Orgs.), As cidades digitais no mapa do Brasil: uma rota para a inclusão digital: 13-60. Brasília, DF: Ministério das Comunicações, 2006. BISER. BISER eEurope Regions Benchmarking Report. European Community Information Society Technology Programme, 2004. CAIBI. Relación de indicadores TIC en los países de la CAIBI. CAIBI, 1999. Disponível em: <www.caibi.org>. Acesso em: 20 jun. 2007. COMITÊ GESTOR DA INTERNET NO BRASIL (CGI). Pesquisa sobre o uso das TICs no Brasil, 2006. Disponível em: <http://www.cetic.br/ indicadores>. Acesso em: 22 abr. 2008.
18
DUTTA, S. et al. The Global Information Technology Report 2005-2006: Leveraging ICT for Development. WEF-INSEAD, 2006. EPAN (European Public Administration Network). eAccessibility of public sector services in the European Union. UK Cabinet Office, 2005. Disponível em: <http://archive.cabinetoffice.gov.uk/egovernment/resources/eaccessibility/index.asp>. Acesso em: 15 out. 2007.
HARGITTAI, E. Classifying and Coding Online Actions. Social Science Computer Review, v. 22 n. 2, p. 210-227, 2004. HARGITTAI, E. Survey Measures of WebOriented Digital Literacy. Social Science Computer Review, v. 23, n. 3, p. 371-379, 2005.
HUSING, T.; SELHOFER, H. DIDIX: A Digital Divide Index for Measuring Inequality in IT Diffusion. IT & Society, v. 1, n. 7,p. 21-38, 2004. INTERNATIONAL TELECOMMUNICATION UNION (ITU). World Telecommunication Development Report 2003: Access Indicators for the Information Society. Genebra: ITU, 2003. INTERNATIONAL TELECOMMUNICATION UNION (ITU). Measuring Digital Opportunity. Coreia: ITU Thematic Meeting, Jun. 2005. MANSELL, R.; WEHN, U. Knowledge Societies: Information Technology for Sustainable Development. Oxford & New York: Oxford University Press, 1998. MARINCU, C.; MCMULLIN, B. A. Comparative assessment of Web accessibility and technical standards conformance in four EU states. First Monday, vol. 9, no. 7, Jul. 2004. Disponível em: <http://firstmonday.org/>. Acesso em: 1 nov. 2007. MENEZES, E. et al. Sistema de Métricas de Inclusão Digital: estado da arte e análise da adequação à realidade brasileira. Projeto Soluções de Telecomunicação para Inclusão Digital. Campinas: CPqD-FUNTTEL, 2007(a).
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital
MENEZES, E. et al. Diretrizes para um Sistema de Métricas de Inclusão Digital. Projeto Soluções de Telecomunicação para Inclusão Digital. Campinas: CPqD-FUNTTEL, 2007(b). NERI, M. (coord.). Avaliação de Impacto do Programa Identidade Digital. Rio de Janeiro: FGV-IBRE, CPS, 2006. ORGANISATION FOR ECONOMIC COOPERATION AND DEVELOPMENT (OECD). Participative web: user-created content. Working Party on the Information Economy, Directorate for Science, Technology and Industry, Committee for Information, Computer and Communications Policy. OECD, abr. 2007. OLAYA, D.; PEYRANO, F. El camino recorrido por América Latina em el desarrollo de indicadores para la medición de la sociedad de la información y la innovación tecnológica. Revista CTS, v. 3, n. 9, p. 153-185, ago. 2007.
Montreal: Orbicom-NCR Press, 2005. STATISTICAL INDICATORS BENCHMARKING THE INFORMATION SOCIETY (SIBIS). Indicator Handbook. EC-SIBIS Statistical Indicators Benchmarking the Information Society, 2003. TAMBASCIA, C. A. et al. Avaliação de projetos e soluções inovadoras em inclusão digital. Cadernos CPqD Tecnologia, Campinas, v. 2, n. 2, p. 19-26, jul./dez. 2006. TELETIME. Atlas Brasileiro de Telecomunicações 2008. São Paulo: Glasberg, 2008. UNITED NATIONS CONFERENCE ON TRADE AND DEVELOPMENT (UNCTAD). Information and Communication Technology Development Indices. Nova York e Genebra: Nações Unidas, 2003.
PORCARO, R. M. Tecnologia da informação e comunicação e desenvolvimento: políticas e estratégias de inclusão digital no Brasil. Texto para discussão IPEA, n. 1.147, jan. 2006.
UNITED NATIONS PUBLIC ADMINISTRATION NETWORK (UN-UNPAN). UN Global Egovernment Readiness Report 2005: From Egovernment to E-inclusion. Nova York: Nações Unidas, 2005.
SANTAELLA, L. Navegar no Ciberespaço: o perfil cognitivo do leitor imersivo. São Paulo: Paulus, 2004.
VELLEMAN, E. et al. D-WAB4 Unified Web Evaluation Methodology (UWEM 1.2 Core). European Commission – WAB Cluster, 2007.
SOCIEDADE BRASILEIRA DE COMPUTAÇÃO (SBC). Grandes Desafios da Pesquisa em Computação no Brasil – 2006 – 2016: Relatório sobre o Seminário realizado em 8 e 9 de maio de 2006. Disponível em: <http://www.sbc.org.br>. Acesso em: 10 ago. 2008.
WARSCHAUER, M. Reconceptualizing the Digital Divide. First Monday, v. 7, n. 7, jul. 2002. Disponível em: <http://firstmonday.org/issues/issue7_7/warschau er/index.html>. Acesso em: 22 abr. 2008.
SCIADAS, G. (ed.). From the Digital Divide to Digital Opportunities: measuring infostates.
WOLCOTT, P. et al. A framework for assessing the Global Diffusion of the Internet. Journal of the Association for Information Systems, v. 2, nov. 2001.
Abstract The aim of this article is to discuss the scope of Information Society indicators when representing the multiple aspects of digital inclusion. In a context of expansion of efforts to widen access to computer and the Internet, other barriers become more evident: besides the physical and economic barriers, psychological, cognitive and language barriers, which may interfere with the intensity and quality of the experience of using these technologies by an individual, acquire relevance in the debate on the barriers to digital inclusion. The importance of these aspects is even more evident in the Brazilian context, with its socioeconomic profile formed by a non-negligible proportion of low-income individuals, with low-level or no education, and people with disabilities. Nevertheless, many of the existing indicators represent primarily physical access to ICTs and the technological aspect of the production and dissemination of such technologies. When evaluating the scope of the data currently collected, we can notice the lack of indicators concerning psychological, cognitive and usability and accessibility barriers. In order to fill such gaps, we propose the collection of additional data that highlights all the diverse aspects of digital inclusion, thus contributing to the development of public policies that effectively stimulate the development of the information society. Key words: Digital inclusion. ICT indicators. Information society. Usability and accessibility. Cognitive barriers.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 7-20, jan./jun. 2009
19
O papel da busca, recuperação e análise de informações de patentes no registro da propriedade intelectual em empresas de base tecnológica Juliano Salmar Nogueira e Taveira *, Mariana Savedra Pfitzner**, Francisco Henrique Papa Este artigo descreve uma metodologia de busca, recuperação e análise nos bancos de dados gratuitos de patentes para se obter informações sobre o estado da arte de uma determinada tecnologia. Trata-se de um ferramental importante para empresas de base tecnológica, nas quais o conhecimento transformado em direito de propriedade pode representar vantagem competitiva para a inovação e o capital intelectual da empresa. O uso dessa metodologia permite ao pesquisador tomar conhecimento dos direitos de propriedade próprios e de terceiros, bem como ajuda a definir novas linhas de atividades de P&D. Apresentamos também um estudo de caso dessa metodologia usando a tecnologia de grade de Bragg em fibras ópticas. Palavras-chave: Busca. Estado-da-arte. Recuperação de informações. Análise de patenteabilidade. Introdução O conhecimento é hoje um insumo essencial para a competitividade empresarial. A velocidade vertiginosa do avanço da tecnologia eliminou a possibilidade de inserção nos mercados internacionais das empresas que se limitam a copiar produtos. Cada vez mais, somente aquelas capazes de criar ou agregar conhecimento ao que fazem conseguirão manter a longevidade de suas atividades principais. Para as chamadas “organizações do conhecimento”, o conhecimento é tido como matéria-prima e, às vezes, produto final. Portanto, estratégias institucionais para aprimorar a pesquisa do conhecimento e proteger os resultados de sua produção são cada vez mais bem-vindas e necessárias às instituições modernas, especialmente as de base tecnológica. O exame do estado da arte de determinadas tecnologias é um diferencial que deve estar presente nessas empresas, pois permite: • diminuir a redundância de esforços e o investimento desnecessário de recursos no desenvolvimento de soluções preexistentes de propriedade de terceiros; • propiciar que as atividades de P&D conduzam a soluções com elevado teor de novidade e, sempre que possível, passíveis de proteção por patentes, caracterizando efeitos de spillovers (conhecimento gera mais conhecimento); • conhecer e absorver a tecnologia disponível através de inovações incrementais; • identificar os atores (inventores, empresas, universidades, centros de P&D, etc.),
respectivas tendências e interesses tecnológicos e comerciais. Em primeiro lugar, para construir o estado da arte de determinada tecnologia, cumpre traçar uma estratégia de busca e recuperação de informações pertinentes ao campo do conhecimento que se investiga (consulte a Seção 2). Essas informações encontram-se publicadas em documentos de patentes ou na literatura científica (artigos, teses, papers, etc.). A documentação de patentes possui características que a tornam uma das mais ricas fontes de informações tecnológicas, uma vez que a descrição técnica detalhada da inovação tecnológica é um dos pressupostos consagrados pelo sistema internacional de patentes. Em aproximadamente 70% dos casos, seu conteúdo não será publicado em qualquer outra fonte de informação (USPTO, 2007). Em segundo lugar, o conjunto de patentes recuperadas deve se transformar em conhecimento útil para a organização. Esse trabalho de análise, denominado “refinamento informacional” (consulte a Seção 3), objetiva estruturar o conhecimento disponível nos documentos de maneira sumarizada e inteligível, tornando-o acessível aos pesquisadores e tomadores de decisão. Com isso, os pesquisadores podem gerar conhecimento novo, passível de ser patenteado. Portanto, ao não se considerar os documentos de patente no levantamento do estado da técnica, os pesquisadores deixam de conhecer informações que poderiam ser muito relevantes para o seu trabalho. O crescimento do número de patentes publicadas no mundo em todas as áreas do
*Autor a quem a correspondência deve ser dirigida: jsalmar@cpqd.com.br **CPFL, Gerência da Inovação. Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 21-26, jan./jun. 2009
O papel da busca, recuperação e análise de informações de patentes no registro da propriedade intelectual em empresas de base tecnológica
conhecimento humano vem atingindo, nos últimos anos, uma escala surpreendente. O acervo mundial de documentos de patentes está estimado em 30 milhões, com um crescimento anual da ordem de um milhão e duzentos mil novos documentos de patentes. O objetivo deste trabalho é, portanto, apresentar, de maneira sucinta, uma metodologia da estratégia de busca, recuperação e análise de informações presentes em documentos de patentes de bancos de dados mundiais de livre acesso. 1
Justificativa
As empresas de base tecnológica possuem um aspecto peculiar: são agentes de mudanças, capazes de introduzir inovações na estrutura industrial e gerar um valor econômico a partir de conhecimentos científicos específicos em sua área de atuação. Nesse contexto, este artigo trata das atividades necessárias que precedem qualquer tipo de registro de propriedade intelectual nessas empresas. A título ilustrativo, este artigo apresenta os casos de busca, recuperação e análise de patentes para a tecnologia de grade de Bragg em fibras, cujo campo de conhecimento pertence às comunicações ópticas. 2
Definição das estratégias de busca e recuperação de informações
A estratégia de busca corresponde a um grupo de regras que tornam possível o encontro entre a pergunta formulada e a informação armazenada na base de dados selecionada. Os principais bancos de patentes gratuitos disponíveis para consulta são: Espacenet (http:// ep.espacenet.com), Free Patents Online INPI (http://www.freepatentsonline.com), (http://www.inpi.gov.br/menu-superior/pesquisas) no item “Pesquisar Bases de Patentes”, USPTO (http://www.uspto.gov/patft/) e Patent Genius (http://www.patentgenius.com/). A base de patentes do INPI se restringe a patentes depositadas e publicadas no Brasil, enquanto o Patent Genius foca-se na busca por inventores. O uso dessa última base é particularmente interessante para se avaliar a movimentação dos pesquisadores com maior número de patentes que trabalham nas empresas, facilitando a identificação da concorrência, bem como a identificação das empresas como players de uma determinada tecnologia. No planejamento da estratégia de busca de informações em bancos de patentes, algumas ações precisam ser estabelecidas: • Compreensão da questão: o que se deseja buscar na base de patentes? Qual o objetivo
22
do levantamento do estado da arte? Escolha do banco de dados: qual o banco de dados que mais se adapta aos objetivos da busca? • Definição dos indexadores de busca: os indexadores de busca poderão ser palavraschave ou classificações internacionais. As palavras-chave não obedecem nenhuma estrutura, são aleatórias e retiradas de textos de linguagem livre. A Classificação Internacional de Patentes (CIP), definida e mantida pela Organização Mundial de Propriedade Intelectual (OMPI-Genebra), foi estabelecida como uma forma taxonômica de relacionar o conhecimento humano descrito na forma de patentes, por meio de oito grupos temáticos: necessidades humanas (A), operações de processamento/transporte (B), química e metalurgia (C), têxtil e papel (D), construções fixas (E), engenharia mecânica/iluminação/aquecimento (F), física (G) e eletricidade (H). • Seleção dos operadores booleanos: os operadores booleanos podem tanto reduzir quanto ampliar o escopo da busca. O truncamento após a palavra-chave (a exemplo do asterisco) aumenta o número de documentos recuperados, enquanto os limitadores (como o uso de “NOT”) descartam documentos sem relação com o objeto da pesquisa. Uma boa estratégia de busca de documentos de patentes garante um conjunto de informações consistentes, capazes de cobrir, ainda que parcialmente, o estado da arte da tecnologia que se está investigando. A verificação da consistência e relevância dos documentos de patentes é chamada de estratégia de recuperação de informações. Especial atenção deve ser conferida ao risco de recuperação de documentos de patentes sem relação com a tecnologia. Esse tipo de problema, causado especialmente por palavras ou acrônimos que possuem diversos significados, afeta a etapa de análise do estado da arte. Exemplos de ambiguidade são as palavras chip (circuitos integrados ou batatas), 3G (terceira geração de tecnologia sem fio ou 3 gramas), FTT* (fibra óptica na casa do assinante ou primeiro transdutor de temperatura). A investigação das classificações atribuídas à palavra ou ao acrônimo buscado é a forma mais indicada para excluir documentos irrelevantes dos resultados obtidos. Assim, no caso do levantamento do estado da arte da tecnologia 3G, devem ser inicialmente considerados documentos pertencentes ao grupo de eletricidade (F) e excluídos os associados às necessidades humanas (A). Normalmente, o pesquisador especialista na tecnologia em investigação deve também auxiliar na •
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 21-26, jan./jun. 2009
O papel da busca, recuperação e análise de informações de patentes no registro da propriedade intelectual em empresas de base tecnológica
recuperação pertinentes.
de
documentos
de
patentes
2.1 Busca e recuperação de informações: o caso da tecnologia de grades de Bragg em fibras ópticas O objetivo do exame do estado da arte para a tecnologia de grade de Bragg em fibras ópticas era a orientação de novas linhas de P&D. Com base nessa informação, montou-se uma estratégia de busca abrangente e genérica, voltada a todas as aplicações e ao conceito da tecnologia. Cumpre lembrar que a base de dados do Espacenet foi utilizada em razão de sua interface amigável para a realização de buscas avançadas. Foram utilizadas como palavras-chave no título ou resumo dos documentos de patentes: bragg grating fibers e bragg grating fibres, considerando as distintas grafias do inglês americano e britânico para fibra. Essas palavras-chave não foram filtradas por classificações internacionais. O resultado da busca trouxe 159 documentos, dos quais 108 foram recuperados (desconsiderando patentes da mesma família) e posteriormente analisados. 3
Análise de informações
A etapa subsequente à busca e recuperação de documentos de patentes compreende a análise das informações neles contidas. Tal análise significa a articulação de dados não estruturados contidos nos textos, de modo a transformá-los em conhecimento útil. No tocante à importância das informações codificadas, Freitas et al. (2005) menciona que “a informação serve à tomada de decisão, logo a necessidade de decidir com maior precisão é justificada pela necessidade que temos em agir, dentro das organizações e no campo da pesquisa”. Isto significa que o conhecimento do estado da arte é fundamental para a tomada de decisões sobre novas linhas de P&D e registro de propriedade intelectual. A definição de linhas estratégicas de P&D por meio do conhecimento prévio do estado da arte configura a situação organizacional que Chandler (1962) chama de structure follows strategy. Isto significa que o exame cuidadoso da tecnologia permite a clara definição de estratégias corporativas de inovação (estratégia) a serem seguidas por toda a empresa (estrutura). Basicamente, a análise de documentos de patentes envolve as seguintes etapas: • Codificação: consiste no agrupamento de documentos de patentes que tratam de temas semelhantes. A codificação dos documentos de patentes pode ser feita através dos títulos, resumos ou quadros reivindicatórios, os quais, a rigor, identificam precisamente o que a patente pretende proteger.
•
Análise léxica: as palavras mais frequentes dos grupos de patentes podem ser listadas com o auxílio de software de pesquisa qualitativa. Tais palavras devem ser analisadas no contexto em que aparecem. Excluem-se dessa análise os verbetes instrumentais que não possuem relação com a tecnologia, como “THE”, “IN” e “AND”. O processo de interpretação do contexto das palavras nas frases de origem é chamado “navegação lexical”. Com este recurso, é possível identificar, de maneira geral, o escopo das invenções. • Análise de conteúdo: a leitura dos resumos dos documentos de patentes, em complementação à análise léxica, permite a sumarização do estado da técnica. Quanto mais documentos forem considerados nessa etapa, maior o grau de cobertura do exame do estado da técnica. O direcionamento da análise de conteúdo é dado pelos assuntos de interesse do demandante da pesquisa, como, por exemplo, o conceito da tecnologia, suas vantagens, desvantagens, possíveis aplicações e seu histórico. O resultado da análise de informações de documentos de patentes culmina em uma sumarização que deve abranger no máximo uma página, compreendendo os aspectos tecnológicos que interessam ao pesquisador e ao tomador de decisões. Entre os benefícios desse exame está a possibilidade de conhecer tanto o que é de domínio público quanto os direitos de propriedade próprios e de terceiros. Além disto, o exame do estado da técnica simplifica modelos de inovação complexos, aproximando-os do tradicional modelo linear. 3.1 Análise de informações: o caso da tecnologia de grades de Bragg em fibras ópticas A análise dos 108 documentos de patentes recuperados na ocasião da pesquisa sobre a grade de Bragg em fibras ópticas compreendeu primeiramente a codificação dos títulos das patentes em áreas temáticas. As invenções foram divididas em métodos para compensação da degradação da performance da fibra e controle do comprimento de onda, formas de fabricação da grade de Bragg, acopladores ópticos e materiais de proteção à fibra. Posteriormente, a contagem de frequência de palavras realizada por um software de pesquisa qualitativa apontou, através de um ranking, as 50 mais frequentes. Excluindo as palavras instrumentais, foi possível identificar os campos de aplicação da tecnologia mais importantes, por meio da frequência com que apareceram: • •
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 21-26, jan./jun. 2009
laser (36%); sensor (27%);
23
O papel da busca, recuperação e análise de informações de patentes no registro da propriedade intelectual em empresas de base tecnológica • • • •
filtro (20%); (de)multiplexador (10%); amplificador (5%); modulador (2%). A navegação lexical em torno das 50 palavras de maior ocorrência possibilitou conceituar a tecnologia de acordo com o estado da arte. A fibra com grade de Bragg é um insumo para dispositivos de rede com guias de luz. Ela reflete energia com determinado comprimento de onda na direção onde a luz se originou. A grade de Bragg em fibras ópticas representa o índice de modulação periódica permanente e refrativa no centro de uma fibra óptica monomodo, sendo que ela possui um comprimento entre 1 e 100 mm. O índice de modulação é formado pela iluminação transversal da fibra com padrão de interferência periódica gerado por luz de laser. A codificação dos documentos em grupos permitiu que a leitura dos resumos das patentes fosse dividida de acordo com as áreas temáticas, o que facilitou o trabalho de análise. Com isto, foram levantadas as limitações da tecnologia, além da identificação de seus potenciais substitutos. Concluiu-se que a tecnologia de grade de Bragg em fibras ópticas apresenta como limitações a queda de performance da fibra em função da variação de temperatura, as degradações de sua transmissão e sua duração. No entanto, verificou-se que as invenções convergem para impedir esses pontos fracos da tecnologia, seja através da aplicação de um anelamento ou através de seu aquecimento a temperaturas altas. A análise de conteúdo também encontrou uma tecnologia substituta vis-à-vis à tecnologia estudada, denominada “grade de longo período” (long period grating), a qual se mostra superior para uso em aplicações de sensoreamento óptico. Notadamente, o exame do estado da técnica apresentou consistência de resultados ao responder às demandas dos pesquisadores sobre o conceito, os problemas e a substituição para a tecnologia de grades de Bragg. Com isto, foi possível definir novas linhas de pesquisa fundamentadas em inovações incrementais no contexto das comunicações ópticas. Além disto, o conhecimento preciso sobre o estado da técnica possibilitou o registro de propriedade intelectual (novidade tecnológica), sem incorrer em violação dos direitos de propriedade de terceiros. Conclusão Este artigo explorou a necessidade de estabelecer critérios e metodologias de Gestão da Propriedade Intelectual, para que “as empresas saibam o que sabem e usem esse conhecimento a seu favor”, como afirmam
24
Davenport e Prusak (1998). Ressalte-se a importância do exame do estado da técnica (busca, recuperação e análise das informações) como ferramental de gestão da informação e registro de propriedade intelectual. A definição da estratégia de busca, em consonância com a classificação internacional apropriada, é responsável pela recuperação de documentos de patentes relevantes. Além disso, uma busca precisa representa condição necessária (mas não suficiente) de uma boa análise do estado da arte da tecnologia em investigação. A análise do estado da técnica depende da codificação de documentos de patentes e da navegação lexical. Com ela, é possível obter conhecimento útil e capaz de gerar inovação. Referências CHANDLER, A. Strategy and Structure: Chapters in the history of the Industrial Enterprise. Cambridge: MIT Press, 1962. DAVENPORT, T. H.; PRUSAK, L. Working Knowledge: how organizations manage what they know. Cap. 2 e 8. Massachusetts: HBS Press, 1998. FREITAS et al. Metodologias, Estratégias e Soluções para exploração de dados quanti e qualitativos. Sphinx Brasil. 2005. Disponível em: <http://www.sphinxbrasil.com/po/lang=po&lone=s ervicos&ltwo=elearning&lthree=artigos>. Acesso em: 22 ago. 2007. UNITED STATES PATENT AND TRADEMARK OFFICE (USPTO). Office of Technology Assessment and Forecast. Disponível em: <http://www.uspto.gov/>. Acesso em: 22 ago. 2007. Bibliografia BRANDAU, R.; MONTEIRO, R.; BRAILE, D. M. Importância do uso correto dos descritores nos artigos científicos. Revista Brasileira de Cirurgia Vascular. São José do Rio Preto, v. 20 n. 1, 2005. CUENCA, A. M. B. O usuário final da busca informatizada: avaliação da capacitação no acesso a bases de dados em biblioteca acadêmica. Ci. Inf., v. 28, n. 3, p. 293-301, Sept./ Dec. 1999. GARCIA, R. M.; SILVA, H. Necessidades de otimização dos processos de planejamento e operacionalização das estratégias de busca em bases de dados especializada: um estudo com pós-graduandos da UNESP de Marília. In: FUJITA, M. (Org.). A dimensão social da
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 21-26, jan./jun. 2009
O papel da busca, recuperação e análise de informações de patentes no registro da propriedade intelectual em empresas de base tecnológica
biblioteca digital na organização e acesso ao conhecimento: aspectos teóricos e aplicados. São Paulo: Departamento Técnico do Sistema Integrado de Bibliotecas da USP. IBICT, 2005. LOPES, I. L. Estratégia de busca na recuperação da informação: revisão da literatura. Ci. Inf., Brasília, v. 31, n. 2, p. 60-71, maio/ago. 2002.
PENNAKEN, M.; VAKKARI, P. Students’ conceptual structure, search process, and outcome while preparing a research proposal: a longitudinal case study. Journal of the American Society for Information Science and Technology, v. 54, n. 8, p. 759-770. 2003.
Abstract This paper describes a methodology for the search, retrieval and analysis of patents information containing the state of the art of a specific technology. This processes is very important for technologybased companies, in which knowledge, transformed into property rights, represents a competitive advantage for innovation. The use of this methodology helps increase the awareness of third party property rights as well as define new subjects of R&D activities. As an example, a practical case study of this methodology is presented using the technology of Bragg in optical fibers. Key words: Search. State of the art. Information retrieval. Patent analysis.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 21-26, jan./jun. 2009
25
Aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em uma rede óptica reconfigurável baseada em ROADMs Júlio César Rodrigues Fernandes de Oliveira *, Giovanni Curiel dos Santos, Fábio Dassan dos Santos O aprovisionamento automático de circuitos ópticos via plano de controle GMPLS é demonstrado experimentalmente em um cenário de rede óptica reconfigurável baseada em ROADMs de grau 2. Exibindo algoritmos que desempenham de forma automática a descoberta e a disseminação da topologia, o cálculo de rota, a escolha do comprimento de onda a ser transmitido e a sinalização entre os elementos da rede óptica, o plano de controle GMPLS desenvolvido propiciou o aprovisionamento de circuitos ópticos em toda a rede, de maneira rápida, eficaz e confiável, através do controle das chaves ópticas que compõem os ROADMs. Palavras-chave: GMPLS. ROADM. DWDM. Redes ópticas reconfiguráveis. Introdução Com o advento das redes ópticas com roteamento de comprimento de onda (canais), os sistemas de comunicações vêm apresentando um contínuo e significativo aumento em sua capacidade de transmissão, baseado na otimização da infraestrutura atual de fibras ópticas disponíveis nos backbones. Nesse tipo de rede, o aprovisionamento, a proteção e a restauração de caminhos ópticos são processos dinâmicos e automáticos. Essas funções são realizadas através de elementos capazes de promover a inserção e a remoção de sinais em determinados pontos da rede, proporcionando um elevado grau de sua reconfigurabilidade (ELADA et al., 2006). Na implementação de uma rede óptica com multiplexação de comprimentos de onda (redes WDM), a reserva e a reconfiguração das rotas que a compõem representam uma necessidade fundamental. Essas tarefas (de reserva e reconfiguração de rotas) são visivelmente notadas no âmbito das redes metropolitanas, nas quais os serviços de transporte de alta capacidade voltados para as grandes áreas de negócios exibem custos excessivos que, em sua maior parte, se devem à configuração manual da rede, normalmente realizada através de Optical Add/Drop Multiplexers (OADM) fixos. Assim, fazse necessário o aprovisionamento de comprimentos de onda, em anéis DWDM metropolitanos e de acesso, a custos bem menores que os oferecidos pelas tecnologias atualmente disponíveis. Os Multiplexadores Ópticos Deriva/Insere Reconfiguráveis (Reconfigurable Optical Add/Drop Multiplexers – ROADMs) se apresentam como a principal solução para reconfiguração remota e automática na camada óptica (METCONNEX, 2006), tendo atualmente
uma vasta planta instalada, elevando significativamente o nível de reconfigurabilidade das redes ópticas, posicionando-as como redes ópticas de nova geração, ou redes ópticas ágeis, como também são conhecidas. A reconfigurabilidade trazida pelos ROADMs torna necessária a adequação de outros dispositivos da camada óptica como os amplificadores ópticos (EDFAs), que exibem forte dependência do ganho com a potência de entrada, equalizadores de potência, bloqueadores de comprimento de onda, transponders sintonizáveis, entre outros. O elevado grau de liberdade proporcionado às redes ópticas pelos elementos de reconfiguração (ROADMs e cross-connects) torna cada vez mais complexo o processo de otimização de alocação dos circuitos ópticos a serem utilizados. Principalmente no cenário de redes em malhas, que em sua maioria são compostas pela interconexão de anéis, torna-se impraticável a escolha manual das rotas a serem habilitadas, levando em conta os requisitos de camada física necessários. É fato que cada nó dos anéis pode ser composto por diversos comprimentos de onda (inclusive sintonizáveis), com amplificadores com ganho controlado e diferentes atenuações entre os enlaces que os interligam, limitados por efeitos não lineares (FWM, SBS, SPM, entre outros). Assim, torna-se imprescindível, para a adequada operação da rede, que todas essas limitações sejam consideradas no processo de habilitação de uma rota de forma automatizada, no qual o operador forneça apenas a origem e o destino, e os algoritmos sejam capazes de extrair a topologia e calcular a melhor rota entre esses dois pontos, considerando as limitações desejadas. Com o intuito de automatizar o processo de habilitação de circuitos em redes ópticas
*Autor a quem a correspondência deve ser dirigida: julioc@cpqd.com.br Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 27-32, jan./jun. 2009
Aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em uma rede óptica reconfigurável baseada em ROADMs
reconfiguráveis, é demonstrada a implementação de um plano de controle Generalized MultiProtocol Label Switching (GMPLS) capaz de automatizar o aprovisionamento de circuitos, fazendo uso de algoritmos de descoberta de topologia, de sinalização e de cálculo de rota. A Seção 1, apresenta uma descrição geral sobre o GMPLS. A Seção 2 apresenta o plano de controle GMPLS desenvolvido e a Seção 3 apresenta os resultados obtidos na demonstração experimental de aprovisionamento automático, baseado em um testbed de uma rede reconfigurável composta por ROADMs de grau 2. Por fim, uma breve conclusão é apresentada. 1
GMPLS
O GMPLS é uma evolução do Multi-Protocol Label Switching (MPLS). Enquanto o MPLS foi desenvolvido com o intuito de gerenciar redes baseadas em pacotes, o GMPLS apresenta um novo paradigma de controle, no qual a rede é representada por um conjunto de camadas, cada uma responsável por trabalhar com um determinado protocolo (pacotes, WDM, comutação de fibras) (OLIVEIRA et al., 2005). A integração dessas camadas oferece uma visão unificada e transparente da topologia. O conjunto de protocolos GMPLS surgiu a partir de uma necessidade não satisfeita pelo MPLS: a reconfigurabilidade dinâmica da rede. Atualmente, a maioria das redes ópticas é estruturada em anéis, o que torna a configuração dos elementos, até certo ponto, relativamente simples. Entretanto, o desenvolvimento das tecnologias de rede aponta para arquiteturas em malha, nas quais será exigida uma inteligência gerenciadora dos elementos constituintes da topologia. Esse gerenciador deverá prover, de
maneira rápida e eficiente, condições para que rotas sejam estabelecidas entre dois pontos da rede, com proteção contra falhas e reconfigurabilidade rápida. Questões relacionadas aos serviços disponibilizados pelas empresas provedoras também impulsionaram o desenvolvimento do GMPLS. Entre elas, destacam-se o oferecimento de larguras de banda dedicadas a um determinado tipo de serviço (transmissão de vídeo, por exemplo) e a necessidade de rotas protegidas contra falhas de qualquer natureza. Essas características podem ser obtidas através dos conceitos de Engenharia de Tráfego suportados por esse conjunto de protocolos (OVUM, 2006). Estruturalmente, o GMPLS divide-se em módulos. Cada um desenvolve uma ação na rede, de acordo com suas características. Existem três módulos principais dentro da arquitetura. O primeiro diz respeito à descoberta da topologia da rede, essencial para que qualquer ação de controle seja desenvolvida. O segundo trabalha com o cálculo de rotas entre os pontos de origem e destino, e o terceiro é responsável pela sinalização dessa rota entre os elementos intermediários e nos próprios clientes de origem e destino. Existe no GMPLS uma divisão estratégica da rede em planos que são independentes entre si e compõem a rede em sua totalidade. O plano de dados é a estrutura física de transmissão de dados na rede, composto pelos equipamentos de comutação (ROADMs, roteadores, switches), além de amplificadores ópticos, analisadores de espectro, transponders, entre outros. É nesse plano que são efetivamente executadas as decisões a respeito do controle da rede (por exemplo, o chaveamento de portas ópticas ou a ativação ou desativação de transponders).
Figura 1 Representação da divisão em plano de dados e plano de controle das redes ópticas reconfiguráveis controladas via GMPLS
28
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 27-32, jan./jun. 2009
Aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em uma rede óptica reconfigurável baseada em ROADMs
O plano de controle é composto por elementos capazes de decidir quais estratégias de roteamento serão utilizadas para o bom funcionamento da rede. Esses elementos (geralmente computadores) se relacionam diretamente com integrantes do plano de dados, embora existam alguns casos em que não há interação – interfaces com clientes, por exemplo. Esses computadores contêm instâncias dos blocos nos quais estão divididos o GMPLS e são capazes de trabalhar em conjunto para determinar rotas, quando solicitadas, já que conhecem a quem estão conectados, fornecendo uma visão estrutural completa da rede, conforme observado na Figura 1. 2
Plano de controle desenvolvido
O plano de controle desenvolvido foi dividido em módulos, cada um com uma função bem definida. São eles: Elemento de Cálculo de Rota (ECR), Elemento de Manipulação de Requisições (EMR) e Elemento de Controle de Equipamentos (ECE). O ECR é responsável por calcular uma rota para uma requisição específica, dadas uma topologia e algumas restrições (características de camada física, preferências por certas tecnologias de transporte de dados, entre outras). Além disso, devem-se considerar as características expressas na requisição de caminho, como as informações de qualidade de serviço, capacidade de encaminhamento dos equipamentos das pontas e protocolo de payload. É dever desse módulo obter as rotas de proteção relacionadas ao pedido feito. O EMR tem a função de abstrair a topologia da rede controlada, além de gerenciar e agendar requisições de criação de caminhos e aplicar
políticas de uso do ECR. Por meio da interface com o cliente, o EMR inicia o pedido de criação de caminho. Ele contém o módulo de cálculo de rota (ECR), que é alimentado com informações obtidas da rede. O ECE recebe as mensagens de controle (criação, manutenção e remoção de caminhos) e executa as devidas configurações nos equipamentos do plano de dados para que o novo caminho seja habilitado. A interface com o cliente é responsável por fornecer todas as operações possíveis no plano de controle para um determinado cliente. O funcionamento da arquitetura também foi dividido em passos, cada um usado em um momento da criação do caminho. Inicialmente, é necessário detectar a topologia presente. Para isso, foi escolhido o protocolo Open Shortest Path First com extensões de Engenharia de Tráfego (OSPF-TE). Para a troca de mensagens de controle entre os controladores de equipamento, foi usado o protocolo Resource Reservation Protocol, também com extensões para Engenharia de Tráfego (RSVP-TE). Esse protocolo foi modificado para que fosse possível o controle dos ROADMs, incluindo os comprimentos de onda disponíveis no equipamento nas mensagens de criação do caminho óptico. Para a comunicação entre a interface com o cliente e o EMR, foi criado um novo protocolo não padronizado. A configuração dos equipamentos foi feita usando seu próprio protocolo já presente. Para que isso fosse possível, foi construído um módulo de configuração do ROADM que informa os dados necessários para sua configuração. A arquitetura envolvendo todos os elementos citados é mostrada na Figura 2.
Figura 2 Relações entre os elementos do plano de controle
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 27-32, jan./jun. 2009
29
Aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em uma rede óptica reconfigurável baseada em ROADMs
3
Aprovisionamento automático de circuitos ópticos (demonstração experimental)
A partir da estruturação física e lógica dos elementos da rede, iniciou-se o processo de criação de um caminho óptico a partir da solicitação de um cliente (CLI1) que, acessando a interface fornecida, configura os parâmetros da requisição que são constituídos pelos nós (inicial e final) do caminho, identificadores para o caminho, largura da banda reservada, além de características dos equipamentos dos pontos terminais. A interface transmite essa requisição para o EMR, que verifica os parâmetros e os repassa ao ECR para buscar em sua base de dados topológica (já construída devido à troca de mensagens OSPF-TE) uma rota que atenda aos requisitos do pedido. O EMR, quando recebe a rota do ECR, devolve a resposta à interfacecliente, que iniciará o processo de sinalização, usando o protocolo RSVP (passo 1) indicado na Figura 3. Um exemplo de resultado dessa primeira etapa pode ser visto na saída de log do processo RSVP: 16:09:14.868 received 10.5.1.6/2001,83952906 16:09:14.868 new 10.5.1.6/2001/83952906
PATH
caminho óptico (PATH) para o primeiro nó presente (ECE 1). Quando o processo em execução do ECE 1 recebe a mensagem, verifica qual equipamento está sob seu controle, constatando que se trata de um ROADM. Dessa forma, ele obtém os canais disponíveis nesse equipamento, preenchendo o objeto LABEL_SET. Esse objeto é utilizado para cadastrar os canais disponíveis nos equipamentos de modo que, no momento da reserva efetiva do caminho, o canal escolhido esteja verdadeiramente disponível. A saída de log a seguir é um exemplo dessa etapa: 16:09:22.298 Processando mensagem PATH 16:09:22.303 Iniciando processamento do erro
fase
2
do
16:09:22.303 Rota encontrada do OSPF: 10.4.1.162 , inPort: 30 , outPort 101 16:09:22.304 ECE: SNMP: vendedor do equipamento...
Tentando
ID:
obter
16:09:25.086 ECE: SNMP: Vendedor reconhecido: ROADM 16:09:25.086 ECE: SNMP: Vendedor reconhecido, CPqD 16:09:25.086 ECE: rotulos para MPLS
Reiniciando
valores
de
16:09:25.088 ECE: SNMP: Criando controlador para o ROADM...
for Session:
16:09:14.869 Processando mensagem PATH 16:09:14.874 MPLS: explicit route for 10.5.1.6 is: IP4:11.0.0.2/32 – IP4:11.0.0.5/32 – IP4:11.0.0.6/32 IP4:11.0.0.9/32 – IP4:11.0.0.10/32 – IP4:11.0.0.13/32 IP4:11.0.0.14/32
A interface-cliente, ao receber a rota do EMR, envia a primeira mensagem de criação do
Os nós intermediários recebem a mensagem com esse objeto preenchido e retiram desse conjunto aqueles comprimentos de onda que já estão de alguma forma indisponíveis para uso (passo 2). O nó final, ao receber a mensagem PATH, escolhe um comprimento de onda do conjunto restante e constrói uma mensagem de resposta para a criação do caminho (RESV) com o objeto LABEL (passo 3). O conteúdo desse objeto é o canal referente ao comprimento de onda escolhido.
Figura 3 Esquema de criação de um caminho óptico em uma rede reconfigurável controlada via GMPLS – indicação das etapas percorridas pela mensagem PATH
30
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 27-32, jan./jun. 2009
Aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em uma rede óptica reconfigurável baseada em ROADMs
Os outros nós, ao receberem a mensagem RESV, configuram o equipamento e retiram da lista de comprimentos de onda disponíveis o presente na mensagem (passo 4), conforme indicado na Figura 4. Assim, quando a mensagem RESV chega ao cliente que solicitou o caminho, ele tem a certeza de que o caminho foi criado com sucesso. Caso contrário, se ocorrer algum erro no processo, o cliente recebe uma mensagem informando esse estado. A configuração do equipamento no processamento da mensagem RESV pode ser conferida na seguinte mensagem de log:
enviando mensagens de configuração para o equipamento (passo 6). A configuração da remoção do caminho pode ser vista na saída de log a seguir:
16:09:40.853 Verificando rotulos (em um vetor de 40): 16:09:40.853 Canal 21 16:09:40.853 Rotulo encontrado, removendo das listas de rotulos disponiveis 16:09:40.853 ECE # Portas envolvidas 100 30 16:09:40.853 ECE # No ROADM 10.4.1.164 16:09:40.853 Derivando canal 21
16:12:13.007 ROADM
Para remover um caminho já criado, é necessário apenas o envio de uma mensagem de remoção de caminho óptico (PTEAR) para os nós que compõem o caminho. Essa informação está armazenada em uma sessão do RSVP-TE criada para o caminho (passo 5), conforme Figura 5. Cada nó, ao receber a mensagem PTEAR, liberará o canal referente ao caminho,
16:12:13.005 gre12 sends MSG to 10.0.0.6 : PTEAR 1 1 ttl:49 length:92 16:12:13.005 setting length in header field to 112 16:12:13.005 sending raw packet to 10.0.0.6 via 0.0.0.0 ip length: 112 16:12:13.005 Liberando lambda: 21 16:12:13.007 Rotulo NAO encontrado Inserindo na lista de disponiveis ECE
#
Liberando
canal
rotulos 21
do
Executando os passos apresentados nas Figuras 3 a 5, foram verificadas experimentalmente a inserção e a remoção de canais de forma automatizada, através do plano de controle GMPLS em desenvolvimento. As confirmações experimentais foram realizadas através do uso de analisadores de espectro óptico (OSA), nos quais verificaram-se a presença e a remoção dos canais após as solicitações realizadas pelos clientes da rede (CLI1). As próximas etapas de desenvolvimento já estão em execução. A primeira etapa tem como objetivo utilizar parâmetros da camada física que possam ser considerados restritivos para o
Figura 4 Esquema de criação de um caminho óptico em uma rede reconfigurável controlada via GMPLS – indicação das etapas percorridas pela mensagem RESV
Figura 5 Esquema de remoção de um caminho óptico em uma rede reconfigurável controlada via GMPLS – indicação das etapas percorridas pela mensagem PTEAR
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 27-32, jan./jun. 2009
31
Aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em uma rede óptica reconfigurável baseada em ROADMs
cálculo das melhores rotas, não necessariamente as mais curtas. A segunda etapa visa a criação de mecanismos que permitam a construção de caminhos ópticos protegidos. Essa proteção é constituída basicamente por uma "rota reserva", mantida à disposição caso alguma falha ocorra no caminho principal. O nível de proteção poderá ser total (da origem até o destino, não existem trechos comuns entre o caminho principal e o reserva) ou parcial (quando apenas um trecho do caminho não é comum a ambos). Conclusão O aprovisionamento de circuitos ópticos de forma automatizada foi demonstrado em um testbed de uma rede óptica reconfigurável baseada em ROADMs, através da utilização do plano de controle GMPLS em desenvolvimento no CPqD. Como apresentado, as fases de descoberta de topologia, de cálculo de rota e de sinalização são realizadas de forma automática, aprovisionando o canal (comprimento de onda) através do controle das chaves do ROADM. Assim, foi demonstrada uma estrutura-base de um plano de controle GMPLS, que, no entanto ainda encontra-se em construção com o objetivo
de agregar, em um futuro próximo, funcionalidades de descoberta de topologia automática, de proteção e algoritmos de RWA com restrições de camada física. Referências ELADA, L. et. al. 40-channel ultra-low-power compact PLC-based ROADM subsystem. OFC 2006, Anaheim, Estados Unidos, 2006. METCONNEX. ROADM Architectures Implementations. Disponível http://www.metconnex.com/Productspage/roadm.htm. Acesso em: 12 set. 2006.
and em:
OLIVEIRA, J. C. R. F. et al. EDFA com Controle Automático de Ganho Eletrônico para Aplicações em Redes WDM. Simpósio Brasileiro de Telecomunicações, Campinas, Brasil, 2005. OVUM. Transition to Agile Optical Networks Drives ROADM and Related Modules Growth. Disponível em: www.jdsu.com/aon/insight_agile _modules_oc_global_2.8.06.pdf. Acesso em: 12 set. 2006.
Abstract In this article, the functionalities, the development, and the applications of a Reconfigurable Optical Add/Drop Multiplexer (ROADM) are described and analyzed. The ROADM development is based on an optical module composed of optical switches and demultiplexers based on PLC technology (Planar Lightwave Circuit), capable of providing the add/drop of optical channels in WDM systems. Besides transparent channel add/dropp, the ROADM provides a fast protection mechanism, proprietary (Serial and Ethernet) and SNMP management interfaces, and a compact package. ROADMs improve substantially the optical network’s reconfigurability level, increasing and optimizing the transmission capability and enabling remote reconfigurations of new optical circuits, reducing significantly the installation and operation costs in WDM networks. Key words: GMPLS. ROADM. DWDM. Reconfigurable optical networks.
32
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 27-32, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas Flávio Olmos Simões*, Mário Uliani Neto, Jeremias Barbosa Machado**, Edson José Nagle, Fernando Oscar Runstein, Leandro de Campos Teixeira Gomes Propomos aqui uma técnica de compressão de fala baseada em quantização vetorial. Uma rede neural com treinamento não supervisionado é usada para implementar o quantizador. Ideias gerais do problema de quantização vetorial são abordadas em conjunto com aspectos introdutórios relativos ao processamento de sinais de fala. Em seguida, é mostrado como a técnica de quantização vetorial pode ser empregada para construir um codebook de fala. As redes de Kohonen bidimensionais são apresentadas como uma ferramenta para a geração do codebook. Finalmente, são apresentados resultados de simulação evidenciando as melhores estratégias de inicialização e treinamento da rede, assim como a melhor topologia da rede para o problema em questão. Palavras-chave: Compressão de sinais de fala. Quantização vetorial. Redes neurais com treinamento não supervisionado. Processamento de sinais. Introdução Uma base de dados cujos elementos são vetores de dimensão fixa pode ser armazenada de forma bastante compacta através da utilização da técnica conhecida como quantização vetorial. Nesta técnica, os vetores da base de dados original são substituídos por vetores aproximados extraídos de um inventário, gerado previamente, denominado codebook. A eficácia do processo de compressão via quantização vetorial pode ser medida a partir do erro de quantização introduzido na nova representação dos dados. No projeto do codebook, visa-se à minimização do erro de quantização médio. Os quadros de sinais de fala parametrizados são um exemplo de dados que podem ser armazenados em notação vetorial e, portanto, podem ser submetidos a um processo de compressão via quantização vetorial. O objetivo deste trabalho é apresentar uma estratégia de compressão de sinais de fala baseada na divisão do sinal em quadros síncronos com o período de pitch, seguida da representação dos quadros como vetores de parâmetros e da compressão do conjunto de quadros via quantização vetorial. Na proposta aqui apresentada, utiliza-se uma rede neural bidimensional do tipo Self-Organizing Map (SOM) (RUNSTEIN, 1998) em conjunto com o algoritmo de clusterização k-means para implementar o processo de clusterização dos quadros da base de treinamento, a fim de gerar o codebook de fala. O codebook gerado é usado na compressão de novos sinais de fala, através da transformação da sequência de quadros do sinal a ser codificado em uma sequência de índices do codebook. No processo de decodificação, a sequência de índices do
codebook é transformada novamente em uma sequência de quadros, e os quadros recuperados são utilizados na reconstrução do sinal, através da aplicação da técnica de overlap and add. A Seção 1 apresenta uma breve introdução ao problema de quantização vetorial. A Seção 2 apresenta alguns conceitos relacionados à representação e ao processamento de sinais de fala. A Seção 3 mostra como a técnica de quantização vetorial pode ser aplicada à compressão de sinais de fala. A Seção 4 apresenta uma discussão sobre redes neurais auto-organizáveis e sua utilização na clusterização de dados. Por fim, a Seção 5 apresenta os resultados da aplicação de uma rede auto-organizável na quantização vetorial de uma base de dados composta por quadros parametrizados extraídos de sinais de fala. Entre as alternativas estudadas, é feita uma discussão indicando quais se apresentaram como o melhor conjunto de parâmetros a ser utilizado para representar os quadros, a melhor topologia de rede e as melhores estratégias de inicialização e treinamento da rede neural. 1
Quantização vetorial e compressão de dados
Quantização vetorial é uma técnica clássica de compressão de dados bastante utilizada em aplicações como compressão de imagens, de voz e reconhecimento de fala, entre outras (GERSHO; GRAY, 1992; GRAY; NEUHOFF, 1998). Trata-se de uma técnica de compressão que normalmente acarreta perdas, uma vez que um codebook de tamanho limitado pode não permitir a recuperação da informação original na íntegra (HAYKIN, 1999). Em quantização vetorial, tem-se um conjunto de
* Autor a quem a correspondência deve ser dirigida: simoes@cpqd.com.br ** Jeremias Barbosa Machado é aluno de pós-doutorado do Departamento de Engenharia da Computação e Automação Industrial (DCA) da Faculdade de Engenharia Elétrica e de Computação da Universidade Estadual de Campinas (Unicamp). Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
dados de entrada {v1 , v 2 , ... , v N } constituído por N vetores de dimensão. A tarefa de um compressor baseado em quantização vetorial é fazer o mapeamento desse conjunto de entrada em um outro conjunto {c1 , c2 , ... ,c M } , de tamanho finito M N , também composto por vetores de dimensão k . Esse novo conjunto é denominado codebook e os vetores c i que o compõem são denominados codevectors. No processo de compressão, cada um dos vetores do conjunto de entrada será mapeado em um codevector. Daí advém o nome da técnica, pois o novo vetor será uma versão quantizada (ou seja, aproximada) do vetor original (conforme Figura 1). Esta aproximação introduz um erro na representação dos dados de entrada, denominado erro de quantização vetorial (GRAY; NEUHOFF, 1998). Supondo que haja uma métrica d . que represente a distância entre dois vetores (por exemplo, a distância euclidiana), uma medida do erro de quantização v i do conjunto original é a de um vetor distância entre esse vetor quantizada
q v i :
Qi=d vi , q vi
vi
e a sua versão
(1)
No projeto do codebook, deseja-se minimizar a perda de informação do conjunto de dados codificados. Em outras palavras, para cada vetor de entrada v i , deseja-se minimizar o erro de quantização dado por (1). Minimizar o erro de quantização para todos os vetores do conjunto
de entrada equivale a minimizar o erro de quantização vetorial médio do conjunto que pode ser definido por:
1 QN= N
N
∑ Qi i=1
(2)
onde N representa o número de vetores do conjunto de entrada. Para criar um codebook que atenda a esse critério, é necessário escolher um conjunto de codevectors de forma que as distâncias entre codevectors e vetores por eles representados sejam as menores possíveis (GRAY; NEUHOFF, 1998). No processo de geração do codebook, utiliza-se um conjunto de dados de treinamento representativo dos dados a serem posteriormente codificados. Os dados de treinamento são agrupados em classes ou clusters, de acordo com algum critério de proximidade (normalmente, a mesma métrica de distância usada no cálculo do erro de quantização). Um cluster é, portanto, um subconjunto de vetores suficientemente próximos entre si. O número de clusters a ser gerado depende da distribuição dos dados de treinamento. Normalmente, deseja-se minimizar a distância intragrupo e maximizar a distância intergrupo. É possível, mas não obrigatório, fixar a priori o número de clusters com o objetivo de gerar um codebook de tamanho previamente conhecido. Tal estratégia, no entanto, não garante a obtenção do menor erro de quantização médio. Em princípio, quanto maior o número de clusters, menor o erro de quantização médio.
Figura 1 Codebook
34
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
Uma vez gerado o codebook, este é utilizado para compressão dos dados da seguinte forma: para cada vetor do conjunto de entrada, varre-se o codebook em busca do codevector mais próximo, associando-se ao vetor de entrada o índice relativo a este codevector. Dessa forma, o conjunto de vetores de entrada é transformado em um conjunto de índices do codebook. Em uma aplicação em que haja transmissão de dados, apenas os índices são transmitidos pelo canal e não os codevectors. Supõe-se, portanto, que o codebook seja conhecido também no receptor. Na etapa de decodificação, os índices são recebidos e usados na recuperação da sequência de codevectors. O processo completo é exibido conforme Figura 2. 2
Análise de sinais de fala
Um sinal de fala é produzido a partir da passagem do ar pelo aparelho fonador humano. Ao ser representado digitalmente, o sinal de fala pode ser visto como um conjunto de amostras espaçadas no eixo do tempo. As características do sinal de fala, em um dado
instante, dependem da configuração momentânea do trato vocal do falante, ou seja, da abertura dos lábios e da mandíbula, da posição da língua, da taxa de vibração das pregas vocais, etc. Ao proferir uma sentença, o falante modifica continuamente a configuração de seu trato vocal, de forma a produzir uma sequência de sons que transmite uma mensagem ao ouvinte. Essa sequência de sons é composta por unidades básicas, denominadas fones. Pode-se definir um fone como um trecho do sinal de fala cujas características acústicas seguem um determinado padrão. Nos trechos de sinal de fala vozeados (Figura 3), ocorre a vibração das pregas vocais. Percebe-se nesse caso que o sinal de fala apresenta uma característica quase periódica, com a ocorrência de picos que se repetem com espaçamento aproximadamente constante. O espaçamento entre esses picos está diretamente relacionado à taxa de vibração das pregas vocais: picos mais próximos entre si indicam uma maior taxa de vibração e, por consequência, uma voz mais aguda; picos mais espaçados, por sua vez, indicam uma taxa de vibração menor das pregas vocais e uma voz mais grave.
Figura 2 Codificação e decodificação por meio de codebook
pmi−1 , pmi , pmi1... Marcas de pitch Figura 3 Sinal vozeado
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
35
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
Já nos trechos não vozeados do sinal (Figura 4), não ocorre vibração das pregas vocais. Nesse caso, o sinal possui energia mais baixa do que a dos trechos vozeados e apresenta característica totalmente aperiódica, assemelhando-se a um sinal de ruído.
janela de Hanning de tamanho 2N2 . As amostras da janela, com primeira amostra na origem, são dadas pela seguinte expressão:
π n 0≤n≤ N 0,5 1 − cos ; 1 N1 − 1 w(n) = π ( n + N1 − N 2 + 1) ; N1 ≤ n ≤ N 2 0,5 1 − cos N2 (3)
Figura 4 Sinal não vozeado
Há, por fim, trechos do sinal de fala com características híbridas entre as dos sinais vozeados e as dos não vozeados. Muito embora as características do sinal de fala variem continuamente ao longo do tempo, é possível analisar suas características acústicas de forma discreta. Uma maneira de fazer isso é subdividir o sinal de fala em trechos de curta duração, chamados quadros, nos quais as características acústicas podem ser consideradas praticamente constantes. A divisão do sinal de fala em quadros, adotada neste trabalho, diferencia trechos de sinal vozeados dos não vozeados, através do uso de marcas de pitch, conforme definido a seguir. Nos trechos do sinal com característica vozeada, as marcas de pitch são posicionadas nos picos do sinal de fala (Figura 3). A distância entre marcas de pitch consecutivas, denominada período de pitch, está relacionada com a taxa de vibração das pregas vocais naquele trecho do sinal. Nos sinais não vozeados, as marcas de pitch são posicionadas em instantes igualmente espaçados no tempo e não têm relação com a vibração das pregas vocais. Uma vez posicionadas as marcas de pitch no sinal de fala, faz-se a subdivisão desse sinal em quadros. Neste trabalho, um quadro é definido como sendo um trecho de sinal em torno de uma marca de pitch, iniciando na marca de pitch imediatamente anterior e indo até a marca de pitch imediatamente seguinte. Percebe-se, portanto, que há sobreposição entre quadros adjacentes: as amostras do período direito de um quadro são as mesmas do período esquerdo do quadro seguinte. Para extrair um quadro do sinal de fala, multiplica-se o trecho de fala de interesse por uma janela assimétrica cujo pico coincide com a marca de pitch central do quadro e com o mesmo número de amostras do quadro. Trata-se de uma janela formada pela junção de duas meias janelas de Hanning (MAKHOUL; WOLF, 1972; BOLL, 1979). A primeira metade corresponde à metade esquerda de uma janela de Hanning de tamanho 2N 1 , e a segunda metade corresponde à metade direita de uma
36
Ao multiplicar o sinal de fala por uma janela posicionada na marca de pitch central do quadro sob análise, obtém-se o quadro janelado, cujas amostras correspondem às amostras originais do quadro com atenuação crescente em direção às bordas. No processo de janelamento de quadros adjacentes, as janelas são posicionadas de forma que a primeira amostra de uma janela coincida com a amostra da marca central da janela anterior e a última amostra dessa mesma janela coincida com a amostra da marca central da janela seguinte. Ao somar as amostras de janelas consecutivas posicionadas dessa maneira, em um processo chamado overlap and add, obtém-se uma sequência de amostras de valor constante igual a 1. Essa propriedade permite reconstruir o sinal original sem distorção a partir de seus quadros janelados. Para isso, basta posicionar os quadros janelados conforme descrito anteriormente e, em seguida, fazer o overlap and add (conforme Figura 5).
Figura 5 Overlap and add de quadros janelados
3
Quantização vetorial aplicada à compressão de sinais de fala
Os quadros de um sinal de fala correspondentes a sons similares podem apresentar forte semelhança entre si. É possível explorar essa semelhança a fim de armazenar sinais de fala de forma mais compacta. A ideia por trás dessa estratégia é descartar informações repetitivas, presentes em quadros similares, armazenando somente as diferenças relevantes. Uma maneira de implementar essa estratégia é através da quantização vetorial (BUZO et al., 1981; KRISHNAMURTHY et al., 1990). Para que a quantização vetorial possa ser utilizada na compressão de sinais de fala, é
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
necessário que o sinal seja representado como um conjunto de vetores de dimensão fixa. Para que possamos utilizar os quadros janelados como sendo as unidades básicas que serão sujeitas ao processo de quantização vetorial, devemos realizar uma transformação na forma de representar os quadros. Isso porque o número de amostras de um quadro é variável: quanto maior o período de pitch associado ao quadro, maior o número de amostras nele presentes. Essa transformação é denominada parametrização. Cada quadro passará a ser representado por um conjunto fixo de parâmetros associados a características acústicas do sinal de fala. Quanto mais semelhantes forem os quadros em termos acústicos, mais próximos devem ser os seus vetores de parâmetros. Para implementar um processo de quantização vetorial de forma eficiente é necessário definir um conjunto de parâmetros que carregue a maior quantidade possível de informação relevante para diferenciação entre quadros. É importante também que haja baixa correlação entre os parâmetros usados, a fim de evitar que eles carreguem informação redundante. Uma vez definido o conjunto de parâmetros a ser utilizado, cada quadro do conjunto de treinamento é associado a um vetor de parâmetros. Esses vetores são agrupados em clusters e, para cada cluster, elege-se um vetor representante, que será o codevector a ser incluído no codebook. O codevector será escolhido entre os vetores que compõem o cluster, de forma que minimize o erro de quantização médio dos vetores do cluster. Diferentes técnicas podem ser consideradas para gerar o codebook. A Seção 4 apresenta a estratégia implementada neste trabalho, baseada em redes neurais com treinamento não supervisionado (mapa de Kohonen bidimensional). Uma vez construído o codebook, é possível utilizá-lo para codificar um sinal de fala qualquer. O processo de codificação consiste nos seguintes passos: • divisão do sinal a ser codificado em quadros; • determinação dos períodos de pitch esquerdo e direito associados aos quadros; • determinação da energia dos quadros; • geração dos vetores de parâmetros dos quadros; • mapeamento dos vetores do quadros em índices do codebook. Para cada quadro do sinal codificado são transmitidos ao receptor o índice do codevector, a energia e os períodos esquerdo e direito (Figura 6). No decodificador, a sequência de índices é mapeada novamente em uma sequência de codevectors (Figura 7).
Figura 6 Codificação de quadros de fala usando codebook
Figura 7 Decodificação de quadros de fala usando codebook
Não é possível reconstruir as amostras dos quadros janelados correspondentes aos codevectors apenas a partir dos parâmetros acústicos armazenados no vetor. Por isso, é necessário que haja no decodificador um dicionário de quadros que armazene, para cada codevector, o quadro janelado que o gerou na etapa de treinamento. Dessa forma, pode-se transformar a sequência de índices que chega ao receptor em uma sequência de quadros janelados. Os quadros janelados, recuperados do dicionário, são submetidos a um ajuste de ganho, de forma que a sua energia passe a ser igual à energia do quadro original. Com isso, evita-se a ocorrência de descontinuidades de amplitude no sinal
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
37
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
reconstruído. A reconstrução do sinal é feita através da operação de sobreposição dos quadros janelados (overlap and add) após a correção de ganho (Figura 8). O espaçamento entre as janelas deve ser tal que os períodos de pitch do sinal original sejam preservados. Dessa forma, a curva de entonação da sentença reconstruída será a mesma da sentença original, assim como sua duração. Deve-se observar que, ao fazer esse posicionamento das janelas, não existe mais garantia de que a primeira amostra de uma janela coincida com a amostra da marca central da janela anterior, nem de que a última amostra dessa mesma janela coincida com a amostra da marca central da janela seguinte. Isso porque o período do quadro armazenado no codebook não é necessariamente o mesmo do quadro sintetizado. Essa alteração no nível de sobreposição das janelas introduz distorção no sinal reconstruído. Quanto menor for tal distorção, menor será a diferença entre os períodos de pitch dos quadros originais e os dos quadros recuperados do dicionário. 4
di2, j hi, j ( n ) = exp − 2 , n = 0,1, 2, K 2σ ( n )
(4)
d i , j é a distância entre os neurônios (vencedor) e i j (vizinho); e é o desvio padrão ajustado a cada tempo discreto n . A taxa com que é atualizado a cada instante é dada por: onde:
n , n = 0,1, 2,K τ1
σ ( n ) = σ 0 exp −
Mapas auto-organizáveis
Os mapas auto-organizáveis (Self-Organizing Maps – SOM) são um tipo de rede neural artificial, inicialmente proposta por Kohonen (1982), levando seu nome. Seu treinamento é feito através de um processo não supervisionado que consiste em quatro etapas (HAYKIN, 1999): • inicialização da rede; • processo competitivo; • processo cooperativo, • processo adaptativo. Na inicialização da rede são definidos os seus parâmetros de configuração: o tipo de distribuição dos neurônios (uni ou bidimensional), a topologia a ser utilizada, no caso bidimensional (folha, cilíndrica ou toroidal), e os valores iniciais dos pesos sinápticos dos neurônios, que podem ser definidos aleatoriamente ou por algum outro critério. Os pesos sinápticos da rede têm a mesma dimensão dos objetos de entrada. Na etapa de aprendizagem propriamente dita, padrões de treinamento são apresentados sequencialmente à rede. Nesta etapa, o vetor x , que representa um objeto de entrada, é apresentado a todos os neurônios da rede e é calculada a distância entre x e todos os vetores de pesos dos respectivos neurônios da rede. A unidade do mapa que apresenta a menor distância em relação ao vetor de entrada x é denominada neurônio vencedor ou Best Matching Unit (BMU). Essa etapa é classificada como a etapa de competição (KOHONEN, 1990a, 1990b), na qual se deseja encontrar o neurônio com maior ativação para cada objeto de entrada.
38
Em seguida, o neurônio vencedor (correspondente ao BMU) é atualizado, sendo movido em direção ao padrão x apresentado na entrada. Os neurônios presentes na vizinhança do neurônio vencedor são também atualizados na direção do padrão de entrada, com taxa de deslocamento seguindo geralmente uma distribuição gaussiana ao redor do neurônio vencedor. A função de ativação da vizinhança é dada pela seguinte equação:
onde
0
é o valor de
(5)
na inicialização
do algoritmo SOM e 1 é uma constante de tempo. Dessa maneira, a vizinhança topológica decresce com o passar do tempo (HAYKIN, 1999). Essa etapa é conhecida como etapa cooperativa, uma vez que o neurônio vencedor irá influenciar no ajuste da sua vizinhança. O processo de aprendizagem se conclui com a etapa adaptativa. Nessa etapa, os vetores de pesos sinápticos w dos neurônios serão ajustados em direção ao vetor de entrada x . A atualização do neurônio vencedor e dos neurônios presentes na sua vizinhança topológica se dá pela seguinte equação:
w j ( n + 1) = w j ( n ) + hi , j ( n ) ( x − w j ( n ) ) onde
j
w j n
(6)
é o vetor de pesos do neurônio
no instante de tempo
n
taxa com que o vetor de pesos
hi , j é a w j deve se xi . e
aproximar do padrão de entrada Os padrões de entrada podem ser apresentados em lote (com atualização dos pesos sinápticos somente após a apresentação de todo o lote de dados) ou em forma sequencial (com atualização dos pesos após a apresentação de cada padrão) (HAYKIN, 1999). As operações citadas acima são realizadas até que se atinja um dado número de iterações ou que um determinado critério de parada seja satisfeito (por exemplo, quando o erro de quantização médio ficar abaixo de um
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
dado limiar). 4.1 Matriz U Os mapas auto-organizáveis são uma projeção de espaços de alta dimensão dos dados de entrada no espaço de dimensão reduzida da estrutura da rede de Kohonen, que normalmente é uni ou bidimensional. O algoritmo de aprendizagem de um SOM é projetado para preservar as relações de vizinhança do espaço de alta dimensão no espaço do mapa (KOHONEN, 1982). Os mapas de Kohonen bidimensionais planos apresentam como desvantagem o fato de os neurônios nas bordas do mapa terem um mapeamento diferente dos neurônios presentes no centro do mapa. Em muitas aplicações, importantes clusters aparecem nas bordas de tais mapas. Para evitar esse tipo de comportamento, que implica em violação topológica no mapa, são utilizados mapas com vizinhanças cilíndricas ou toroidais. Para se analisar as características emergentes do mapa de Kohonen, foi proposto o uso da matriz U (ULTSCH; SIEMON, 1990). A matriz U é construída a partir da superfície gerada pela plotagem das distâncias entre dois neurônios vizinhos. Seja um neurônio n pertencente ao mapa e NV n o conjunto de neurônios imediatamente vizinhos a n no mapa, com wn o vetor de pesos referente ao neurônio n . Então,
U ( n) = onde
∑ d (w
m∈NV ( n )
d x , y
n
− wm )
(7)
é a distância usada no
algoritmo de construção do mapa autoorganizável. A representação gráfica da matriz U geralmente se dá por uma representação em 2D com curvas de nível ou em 3D com escala de cores. As propriedades da matriz U são: • a posição da projeção dos dados de entrada reflete a topologia do espaço de entrada; • os vetores de pesos de neurônios vizinhos com alto valor na matriz U indicam vetores distantes no espaço de entrada; • os vetores de pesos de neurônios vizinhos com baixo valor na matriz U indicam vetores próximos no espaço de entrada; • os picos na representação 3D da matriz U representam fronteiras entre os clusters; • os vales na representação 3D da matriz U representam clusters. Dessa maneira, a matriz U representa o comportamento emergente do mapa de Kohonen, a partir dos objetos presentes no espaço de entrada. 4.2 Clusterização e o algoritmo k-means A matriz U representa a distância entre os pesos dos neurônios, preservando a vizinhança topológica dos padrões de entrada que geralmente estão em um espaço de alta dimensão. Muitas vezes é difícil determinar com precisão onde se localizam as fronteiras dos clusters, conforme Figura 9. Em determinadas aplicações, a matriz U é suficiente para se determinar os clusters e suas fronteiras. Contudo, no problema abordado neste trabalho, além de determinar os clusters, é necessário determinar o neurônio que melhor representa cada cluster, para que este esteja presente no codebook no processo de quantização vetorial.
Figura 9 Matriz U em 2D
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
39
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
Para solucionar esse problema, é utilizado o algoritmo k-means de clusterização sobre a matriz U. O algoritmo k-means (FORGEY, 1965; MACQUEEN, 1967) permite criar k clusters a partir de um conjunto de objetos, tendo como objetivo encontrar protótipos para os clusters de forma que a distância dos objetos dentro do grupo em relação a esses protótipos seja mínima. Assumindo que os objetos estejam na forma de vetores de atributos, a função a ser minimizada é: k
J = ∑ ∑ x j − µi
2
(8)
i =1 x j ∈si
onde há
i
k
clusters
Si ,
i=1 , 2 ,... , k ,
é o protótipo ou centroide dos respectivos
xj clusters, é o j -ésimo objeto pertencente ao i -ésimo cluster e ⌈.⌉ é uma norma de distância adotada, sendo geralmente utilizada a norma euclidiana. Um dos mais populares algoritmos utilizados para resolver de forma iterativa este problema é o algoritmo de Lloyd (LLOYD, 1982). Esse algoritmo inicia-se com o particionamento, aleatório ou utilizando alguma heurística, dos objetos de entrada em clusters. k Posteriormente, é calculado o protótipo de cada um dos clusters, dado inicialmente como o ponto médio. Uma vez calculado o protótipo, os clusters são redefinidos de forma a minimizar a distância dos objetos ao centroide. Após a redefinição, novos centroides são calculados e os clusters são novamente redefinidos. O processo é repetido até que uma dada condição de convergência seja atingida. Além desse, outros métodos para implementar o algoritmo kmeans são apresentados na literatura (KANUNGO et al., 2002). Após a convergência, são definidos os clusters e seus respectivos protótipos, os quais serão utilizados como representantes dos clusters em aplicações do codebook obtido. 5
Análise de resultados
Neste trabalho, a rede de Kohonen foi utilizada em conjunto com o algoritmo k-means para fazer o agrupamento dos quadros de fala de acordo com suas características acústicas. Para tal, diferentes quadros pertencentes a uma base de dados de fala foram apresentados à rede em lote. Pelo fato de que quadros de fala adjacentes no tempo muitas vezes apresentam alta correlação, tomou-se o cuidado de embaralhá-los a cada iteração antes da apresentação dos dados à rede. Com isso, procurou-se evitar a polarização do treinamento da rede decorrente
40
da apresentação de uma grande quantidade de dados similares em sequência. O treinamento em lote utilizou como critério de parada um número de iterações fixo e suficientemente grande, para garantir que o erro de quantização atingisse um regime permanente (convergência). Como resultado do treinamento, após a convergência os neurônios da rede representam os diferentes grupos de quadros de fala apresentados à rede. Para determinar os quadros representantes de cada grupo, foi utilizado o algoritmo k-means, cuja saída é o conjunto de codevectors que irão compor o codebook. Os ensaios foram divididos em duas partes fundamentais: a primeira delas consiste na análise dos parâmetros da fala, em busca do conjunto capaz de gerar os melhores resultados; a segunda consiste na análise topológica referente à inicialização e ao treinamento da rede neural empregada, buscando avaliar a influência dos diferentes arranjos na qualidade do sinal de fala sintetizado a partir do sinal quantizado. Por fim, foi feita a comparação dos resultados obtidos, por meio da técnica proposta, com os resultados de um algoritmo de codificação perceptual popular, de forma a obter uma referência do potencial do método aqui proposto. Nessa etapa de análise, foi utilizada a mesma base de dados de fala tanto para o treinamento do codebook como para a validação do processo de compressão. A base de dados utilizada é composta por arquivos de fala representando 100 frases. As frases foram projetadas de forma a apresentar riqueza e diversidade fonéticas. Os arquivos de fala são armazenados no formato wave (codificação PCM linear) com taxa de amostragem de 16 kHz e 16 bits por amostra. No total, as 100 frases da base de dados são constituídas por aproximadamente 52.000 quadros. 5.1 Seleção de parâmetros O principal objetivo dessa análise é determinar um conjunto de parâmetros que agrupe os quadros do sinal de fala de forma coerente. Para tal, foi definida uma metodologia capaz de avaliar de maneira objetiva e quantitativa a qualidade do sinal de fala reconstruído a partir dos quadros presentes no codebook. Essa metodologia consiste em gerar diferentes conjuntos de vetores de atributos a partir dos quadros da base de dados de fala. Os vetores são agrupados em clusters utilizando uma rede de Kohonen em conjunto com o algoritmo k-means para formar o codebook de fala. A partir do codebook, foram reconstruídas as mesmas 100 frases usadas no treinamento e a qualidade desses sinais foi avaliada. Portanto, o objetivo da metodologia apresentada é avaliar o conjunto de parâmetros
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
que gerou o melhor codebook. Duas formas tradicionais para avaliação da qualidade de sinais de fala são: a avaliação subjetiva (inspeção auditiva) e avaliação objetiva (medida objetiva gerada por um algoritmo). A avaliação subjetiva consiste no uso de métodos padronizados (ITU-T 85, 1994; ITU-T P.830, 1996a; ITU-T P.830, 1996b) para a geração de notas de avaliação de qualidade por avaliadores humanos, e é bastante dispendiosa em termos de tempo e requisitos de infraestrutura. Na avaliação objetiva, por sua vez, substituem-se os avaliadores humanos por um algoritmo implementado em software (ITU-T P.861, 1998; ITU-T P.862, 2001), o qual utiliza modelos psicoacústicos que, com base em diversas características do aparelho auditivo humano, geram notas que simulam os resultados de testes subjetivos. O algoritmo utilizado neste trabalho é o Perceptual Evaluation of Speech Quality (PESQ), padronizado na norma de referência P.862 da ITU-T (ITU-T P.862, 2001). Os parâmetros de fala escolhidos para teste são parâmetros comumente utilizados em aplicações envolvendo processamento de sinais de fala, amplamente referenciados na literatura (ANDERSON, 1992; CAWLEY; NOAKES, 1993; HERNANDEZ-GOMEZ; LOPEZ-GONZALO, 1993; KITAMURA; TAKEI, 1996). São eles: • período esquerdo: número de amostras entre o início do quadro e a marca de pitch central; • período direito: número de amostras entre a marca de pitch central e o final do quadro; • taxa de cruzamento de zeros: contagem do número de vezes, por centésimo de segundo, em que ocorreu mudança de sinal entre amostras consecutivas do quadro; • taxa de máximos e mínimos: contagem do número de inflexões da forma de onda ao longo do quadro, por centésimo de segundo; • parâmetros mel-cepstrais: transformada cosseno (DCT) do módulo do espectro em dB do sinal. O espectro é calculado através da transformada rápida de Fourier (FFT) com 1.024 pontos. Antes do cálculo do módulo do espectro em dB, os coeficientes do espectro são submetidos a uma filtragem por um
banco de filtros cujo resultado é a energia distribuída em 24 bandas críticas na escala mel. A escala mel é uma transformação do eixo de frequência, linear para frequências baixas e aproximadamente logarítmica para frequências altas, cujo objetivo é simular a resposta em frequência do ouvido humano. Para o cálculo dos parâmetros mel-cepstrais considerados neste trabalho, foi utilizado o algoritmo de Davis & Mermelstein (1980). Outros tipos de parâmetros serão avaliados em trabalhos futuros, tais como coeficientes de predição linear (LPC), coeficientes LP-Cepstrais, coeficientes espectrais e coeficientes espectrais mel/Bark. A Tabela 1 apresenta o resultado da aplicação do algoritmo PESQ (medida PESQMOS, variando entre 0, no pior caso, e 4.500 no melhor) para os diferentes conjuntos de parâmetros testados. O melhor arranjo topológico obtido na Seção 5.2 foi utilizado nas simulações. Não foi feita a normalização dos parâmetros mel-cepstrais, pois seus valores já são aproximadamente proporcionais à variância dos parâmetros. Por outro lado, os parâmetros de período foram normalizados em função da variância do primeiro parâmetro mel-cepstral. Vê-se que o melhor conjunto obtido é composto por 13 parâmetros (os 12 primeiros parâmetros mel-cepstrais mais o período esquerdo do quadro). 5.2 Análise topológica e de inicialização Em busca da maximização da qualidade do sinal de fala gerado a partir do codebook, foram analisadas diversas configurações topológicas e de inicialização da rede de Kohonen. A rede foi implementada com o auxílio do toolkit SOM mantido pelo grupo de Teuvo Kohonen na Helsinki University of Technology (SOM Toolbox). Um tutorial do toolkit SOM em português foi desenvolvido por Rittner & Brum (2005). Os valores quantitativos referentes à avaliação objetiva que serão apresentados correspondem à média de 10 medidas objetivas para 10 treinamentos distintos da rede utilizando as 100 frases da base de testes.
Tabela 1 Valores da avaliação objetiva para diferentes conjuntos de parâmetros
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
41
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
(a)
(b) Figura 10 Matriz U para diferentes configurações do mapa: (a) Retangular; (b) Hexagonal
5.2.1
Vizinhança
Para avaliar a influência do arranjo dos neurônios da rede, testamos e avaliamos diferentes configurações de vizinhança com o auxílio do PESQ. As Figuras 10(a) e 10(b) apresentam a matriz U para uma realização utilizando as vizinhanças retangular (PESQMOS = 2346,56) e hexagonal (PESQMOS = 2358,56), respectivamente. Nota-se que a Figura 10(b) apresenta uma diversidade maior, expressa por uma maior distância entre regiões (grupos) de neurônios. A vizinhança hexagonal também apresentou maior valor no PESQ. No que diz respeito à vizinhança, também foi avaliada a
42
influência do arranjo nos extremos do mapa. A Tabela 2 apresenta os valores da avaliação objetiva. Nota-se que os resultados obtidos foram próximos entre si, sendo que o arranjo toroidal apresentou o melhor resultado (PESQMOS = 2358,56). Tabela 2 Desempenho em função do arranjo da vizinhança nos extremos Arranjo
PESQMOS
folha
2330,74
cilindro
2349,17
toroide
2358,56
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
5.2.2
Número de neurônios
Os testes preliminares utilizando o método de quantização vetorial mostraram que existe um compromisso entre o número de neurônios da rede e o número de clusters de saída gerado pelo algoritmo k-means, razão pela qual é essencial avaliar a influência do número de neurônios para um número fixo de clusters. Para isso, treinou-se a rede com uma única frase da base, contendo 440 quadros, sendo fixado o número de clusters na saída do k-means em 440. O principal objetivo dessa análise é observar a capacidade da rede de gerar um codebook contendo representantes distintos para cada vetor de entrada, ou seja, gerar um codebook formado por todos os vetores originais. No primeiro ensaio, foi utilizada uma rede de 21x21 neurônios (número de neurônios igual ao número de clusters) e no segundo ensaio, utilizou-se uma rede de 50x50 neurônios (número de neurônios bem maior do que o número de clusters). As Figuras 11(a) e 11(b) apresentam a matriz U e a saída do k-means, respectivamente, para o primeiro ensaio. As Figuras 11(c) e 11(d) apresentam a matriz U e a saída do k-means
para o segundo ensaio. É possível observar que no primeiro ensaio não há informação suficiente na matriz U, devido ao fato de o k-means não conseguir formar os 440 clusters desejados. Já no segundo ensaio, a matriz U apresenta um resultado conforme o esperado, em que se pode observar uma nítida barreira (distância) entre os diferentes grupos de neurônios. Nesse caso, o kmeans conseguiu gerar um número de clusters bem maior. O resultado da avaliação objetiva foi de 1.816 para o primeiro ensaio e 3.564 para o segundo. Através de inspeção auditiva, percebese claramente que o sinal de fala gerado com o primeiro codebook apresenta sérias degradações, enquanto o sinal gerado com o segundo quase não apresenta degradações perceptíveis. Na sequência dos testes, analisamos a influência do número de neurônios no treinamento com toda a base de dados (contendo cerca de 52.000 quadros). A Tabela 3 mostra os resultados da avaliação objetiva obtidos para mapas com diferentes números de neurônios. É possível notar que, à medida que se aumenta o número de neurônios, ocorre um aumento do valor do resultado da avaliação objetiva.
(a)
(b)
(c)
(d)
Figura 11 Clusterização utilizando uma frase (440 quadros): (a) Matriz U; (b) Clusterização para rede de 21x21 neurônios; (c) Matriz U; (d) Clusterização para rede de 50x50 neurônios
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
43
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
seguir é avaliar a influência do tamanho dessa região. Três diferentes estratégias de vizinhança foram testadas. A primeira utilizou uma vizinhança denominada grande, capaz de ajustar todos os neurônios da rede. A segunda utilizou uma vizinhança pequena, com um raio abrangendo alguns poucos vizinhos. A terceira utilizou uma vizinhança decrescente, iniciando o treinamento com uma vizinhança capaz de ajustar todos os neurônios da rede e decrescendo linearmente o seu tamanho ao longo do processo, de modo a finalizá-lo com uma região abrangendo apenas os neurônios mais próximos. As Figuras 12(a), 12(b) e 12(c) apresentam os erros de quantização topológicos para as vizinhanças “grande” (PESQMOS = 2241,70), “pequena” (PESQMOS = 2429,20) e “decrescente” (PESQMOS = 2472,20), respectivamente. Nota-se que o erro apresentado pela vizinhança “grande” é maior se comparado com os demais. A vizinhança “decrescente” apresentou menor erro de quantização e PESQMOS.
Tabela 3 Desempenho em função do número de neurônios na rede Número de neurônios
5.2.3
PESQMOS
25x25 - 625
2330,74
40x40 - 1600
2349,17
60x60 - 3600
2358,56
Inicialização dos pesos dos neurônios
Foram testadas duas estratégias de inicialização dos neurônios: aleatória e linear. Apesar de a inicialização aleatória começar o treinamento da rede com um erro de quantização topológico maior, ambas convergem para um mesmo limiar, resultando aproximadamente na mesma medida PESQMOS. 5.2.4
Ajuste dos neurônios
Uma característica da rede determinante para a qualidade do resultado final é a região de vizinhança em torno do neurônio vencedor dentro da qual há ajuste de pesos durante o treinamento. O objetivo dos ensaios descritos a
(a)
(b)
(c) Figura 12 Estratégia de ajuste dos neurônios: (a) Vizinhança “grande”; (b) Vizinhança “pequena”; (c) Vizinhança “decrescente”
44
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
5.2.5
Tamanho do codebook
Por fim, passamos à análise do tamanho do codebook de fala. O objetivo aqui é avaliar a influência do número de codevectors de saída obtidos pelo algoritmo k-means. Teoricamente, quanto maior o tamanho do codebook, maior a quantidade de vetores para representação da base inicial codificada e, portanto, maior a qualidade perceptual dos sinais reconstruídos. A comprovação exaustiva desse fato através de medidas experimentais extrapola o escopo deste trabalho.
percebe-se que as degradações impostas pelas duas técnicas são diferentes. A técnica de quantização aqui proposta introduz efeitos de descontinuidade do sinal, ao passo que a codificação MP3 tipicamente torna o sinal "abafado", indicando perda de componentes de alta frequência. Tabela 5 Comparação do método de quantização vetorial com MPEG1-Layer 3
Tabela 4 Desempenho do tamanho do codebook Número de codevectors
PESQMOS
20
2058,96
100
2226,89
500
2341,86
1000
2415,90
3000
2382,33
A Tabela 4 apresenta o resultado PESQMOS para distintos tamanhos de codebook. Os resultados foram obtidos utilizando a base de treinamento com 100 frases (cerca de 52.000 quadros) e uma rede de 60x60 neurônios. Notase pela tabela que os valores PESQMOS aumentam até o codebook com 1000 codevectors, como era esperado. No entanto, para um codebook com 3.000 codevectors, o valor PESQMOS é menor do que para o codebook com 1.000 codevectors. Isso se deve provavelmente ao fato de que, nesse caso, o número de neurônios na rede é insuficiente para representar 3.000 clusters. Como mostrado anteriormente, existe um compromisso entre o número de neurônios e o número de clusters. 5.3 Comparação com o MPEG1-Layer 3 Com o intuito de avaliar o potencial da técnica de quantização vetorial aqui proposta, comparamos os valores de avaliação objetiva para a melhor configuração encontrada na seção anterior com os valores obtidos utilizando o codec MPEG1Layer 3 (MP3). Foi utilizado um codebook contendo 500 codevectors treinado a partir de 100 frases, utilizando um mapa de 60x60 neurônios, propiciando uma taxa de compressão de cerca de 100 vezes. Na compressão via MP3, foi utilizada uma taxa de bits constante (CBR) de 8 kbit/s, propiciando uma taxa de compressão de cerca de 30 vezes. A Tabela 5 apresenta o resultado da comparação objetiva. Vemos que a abordagem utilizando o método de quantização vetorial apresentou uma taxa de compressão mais de três vezes superior à do MP3 e o resultado da avaliação objetiva indicou um menor nível de degradação. Ao fazer a inspeção auditiva dos sinais decodificados,
Tipo de compressão
PESQMOS
Sem compressão
4500
Quantização vetorial (compr. 100 vezes)
2343
MPEG1-Layer 3 (compr. 30 vezes)
1904
Conclusão Neste trabalho foi proposto um método de compressão de sinais de fala baseado em quantização vetorial. O método utiliza como unidades básicas do sinal de fala os quadros obtidos através da segmentação do sinal em suas marcas de pitch. Esses quadros são parametrizados e agrupados em diferentes clusters, de acordo com suas características acústicas. Para o agrupamento (clusterização) dos quadros de fala, foi utilizada uma rede neural de Kohonen em conjunto com o algoritmo k-means. O uso deste último deve-se à necessidade de que o número de neurônios na rede seja superior ao número de clusters presentes no codebook de fala. Os resultados experimentais mostraram que o método foi bem-sucedido, agrupando os quadros do sinal de fala de forma coerente. A extração dos parâmetros dos quadros é uma etapa de fundamental importância para o correto agrupamento produzido pela rede de Kohonen. Os parâmetros mel-cepstrais mostraram preservar, mais do que qualquer outro parâmetro analisado, as características acústicas da fala relevantes para o processo de clusterização. A qualidade do sinal de fala reconstruído a partir do codebook é proporcional à relação entre a quantidade de codevectors existentes no codebook e o número de quadros existentes na base de fala original. O método de quantização vetorial aqui proposto apresentou resultados bastante promissores para aplicações de compressão de fala. Comparações com o codec MPEG1-Layer 3 utilizando o algoritmo PESQ para avaliação objetiva da qualidade dos sinais de fala resultaram em notas maiores para o algoritmo de quantização vetorial proposto. Nas próximas etapas deste trabalho, está prevista a análise de outros parâmetros extraídos de sinais de fala, tais como coeficientes de predição linear (LPC), coeficientes LP-Cepstrais,
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
45
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
coeficientes espectrais, coeficientes mel/Bark espectrais, etc. Está previsto ainda o estudo de mapas autoconstrutivos, de forma a melhorar o agrupamento dos neurônios na rede de Kohonen e eliminar o uso do algoritmo k-means. Além disso, será estudada uma forma de inicialização dos pesos da rede utilizando quadros de fala reais amostrados da base de treinamento. Referências ANDERSON, T. R. Phoneme recognition using an auditory model and a recurrent self-organizing neural network. ICASSP92: IEEE International Conference on Acoustics, Speech and Signal Processing, Vol. 2: p. 337-340, 1992. BOLL, S. Suppression of acoustic noise in speech using spectral subtraction. IEEE Trans. on Acoustics, Speech, and Signal Processing, 27(2): p. 113-120, 1979. BUZO, A. et al. Speech coding based upon vector quantization. IEEE Trans. on Acoustics, Speech, and Signal Processing, 28(5): p. 562-574, 1981. CAWLEY, G. C.; NOAKES, P. D. The use of vector quantization in neural speech synthesis, volume III, Piscataway, NJ, USA. IEEE Service Center, IJCNN93, International Joint Conference on Neural Networks. 1993. DAVIS, S.; MERMELSTEIN, P. Comparison of parametric representations for monosyllabic word recognition in continuously spoken sentences. IEEE Trans. on ASSP, 28(4): p. 357-366, ago, 1980. FORGEY, E. Cluster analysis of multivariate data: efficiency vs. interpretability of classification. Biometrics, (21): 768, 1965. GERSHO, A.; GRAY, R. Vector quantization and signal compression. 2ª ed., Kluwer Academic Publishers, 1992. GRAY, R. M.; NEUHOFF, D. Quantization. IEEE Trans. on Inf. Theory, 44(6), 1998. HAYKIN, S. Neural networks, a comprehensive foundation, 2ª ed. Prentice Hall , 1999. HERNANDEZ-GOMEZ, L. A.; LOPEZGONZALO, E. Phonetically-driven CELP coding using self-organizing maps, volume II, Piscataway, NJ. IEEE Service Center. ICASSP93, International Conference on Acoustics, Speech Propa gation and Signal Processing. 1993. ITU TELECOMMUNICATION STANDARDIZATION SECTOR (ITU-T). 85 – A method for subjective
46
performance assessment of the quality of speech voice output devices, jun. 1994. ITU TELECOMMUNICATION STANDARDIZATION SECTOR (ITU-T). P.830 – Subjective performance
assessment of telephone-band and wideband digital codecs, fev. 1996a.
ITU TELECOMMUNICATION STANDARDIZATION SECTOR (ITU-T). P.830 – Subjective performance
assessment of telephone-band and wideband digital codecs, fev. 1996b.
ITU TELECOMMUNICATION STANDARDIZATION SECTOR (ITU-T). P.861 – Objective quality
measurement of telephone-band (300-3400 Hz) speech codecs, fev, 1998. ITU TELECOMMUNICATION STANDARDIZATION SECTOR (ITU-T). P.862 – Perceptual evaluation of
speech quality (PESQ), an objective method for end-to-end speech quality assessment of narrow band telephone networks and speech codecs, fev, 2001. KANUNGO, T. et al. An efficient k-means clustering algorithm: analysis and implementation. IEEE Transactions on Pattern Analysis and Machine Intelligence, 24: 881-892, 2002. KITAMURA, T.; TAKEI, S. Speaker recognition model using two-dimensional mel-cepstrum and predictive neural network, New York, NY, USA. Proceedings ICSLP 96. Fourth International Conference on Spoken Language Processing, volume 3, 1996. KOHONEN, T. Self-organized formation of topologically correct feature maps. Biological Cybernetics, (43): 59-69, 1982. KOHONEN, T. Improved versions of learning vector quantization. IJCNN International Joint Conference on Neural Networks, (1): p. 545-550, 1990a. KOHONEN, T. The self-organizing map. Proceedings of the IEEE, (78): p. 1464-1480, 1990b. KRISHNAMURTHY, A. et al. Neural networks for vector quantization of speech and images. IEEE Journal on Selected Areas in Communications, 8(8): p. 1449-1457, 1990. LLOYD, S. P. Least squares quantization in PCM. IEEE Trans. Information Theory, (28): p. 129-137, 1982. MACQUEEN, J. Some methods for classification and analysis of multivariate observations. Proc. Fifth Berkeley Symp. Math. Statistics and Probability, (1): p. 281-296, 1967.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas
MAKHOUL, J.; WOLF, J. Linear prediction and the spectral analysis of speech. Bolt, Beranek, an Newman Inc. , p. 172-185, 1972. RITTNER, L.; BRUM, I. B. Tutorial: SOM Toolbox para MATLAB. Unicamp, maio/2005. RUNSTEIN, F. Sistema de reconhecimento de
fala baseado em redes neurais artificiais. Tese de Doutorado, FEEC/Unicamp, 1998. ULTSCH, A.; SIEMON, H. P. Kohonen’s selforganizing feature maps for exploratory data analysis. In Proc. INNC’90, Int. Neural Network Conf., p. 305-308, Dordrecht, Holanda, 1990.
Abstract We propose a speech compression technique based on vector quantization. A neural network with unsupervised learning is used to implement the vector quantizer. Some general issues concerning the vector quantization problem are presented, as well as some basic aspects related to speech signal processing. The idea of using a codebook to perform speech compression is introduced, and the use of a 2-dimensional self-organizing Kohonen map to generate the codebook is proposed. Finally, simulation results are presented, giving some insights on the best network initialization and training strategies, as well as the best network topology for this problem. Key words: Speech compression. Vector quantization. Neural networks with unsupervised learning. Signal processing.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 33-48, jan./jun. 2009
47
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura Victor Alfonso Valenzuela Diaz*, Isabela Vasconcelos de Carvalho Motta Este artigo descreve um novo código corretor de erros baseado em uma estrutura descramblerscrambler. Descreve também sua modelagem em termos de grafos-fatores. Esse código corresponde a uma evolução do código descrambler-scrambler que foi anteriormente desenvolvido para os equipamentos Vectura1. São inicialmente descritos os conceitos básicos e a motivação do uso de códigos corretores e detectores de forma geral e, em particular, na transmissão interna de equipamentos. Posteriormente, são descritos o tipo de código detector de erro e o novo código corretor de erros. Finalmente, é feita a análise do uso da técnica de grafos-fatores para modelar esse código. Durante a apresentação dos códigos detector e corretor, é analisada a eficiência destes utilizando uma abordagem baseada nas características das sequências pseudoaleatórias de máximo comprimento. Palavras-chave: Código detector de erro. Código corretor de erros. Grafos-fatores. Scrambler. Descrambler. Introdução Os sistemas de transmissão digital, apesar de apresentarem maior imunidade a ruídos do que os sistemas analógicos, frequentemente precisam conviver com taxas de erros de transmissão não nulas. Nesses sistemas de transmissão ruidosos, o uso de códigos detectores e corretores de erro pode ser a melhor solução para obter taxas de erro baixas a custos adequados. O código detector de erros descrambler-scrambler foi concebido inicialmente para ser usado na transmissão interna de sinais entre processadores da plataforma Trópico (VALENZUELA, 1987). Posteriormente, passou a ser usado também em equipamentos da plataforma Vectura. Hoje, esses equipamentos possuem uma arquitetura com controle distribuído baseada em uma rede composta de vários processadores e tratam mais de 45 bilhões de minutos de chamadas por mês, exigindo requisitos de altíssima qualidade na sua rede de processadores interna. Além de revisitar esse código, é também apresentada uma metodologia de análise de probabilidade de falha, ou seja, de não detecção de erros. Posteriormente foi desenvolvido o código corretor de erros descrambler-scrambler, que é também apresentado neste artigo. 1 Código detector de erro descramblerscrambler Os códigos detectores e corretores de erro aqui tratados se aplicam a sinais digitais que, em geral, possuem taxas de bits constantes. De fato,
pode-se abstrair a representação física (elétrica, por exemplo, e inclusive temporal) desses sinais e considerá-los simplesmente sequências de bits “1s” e “0s”. Uma característica importante do código é que não há exigência de que todas as mensagens originais possuam um mesmo tamanho. O código detector descrambler-scrambler foi desenvolvido para ter uma implementação extremamente simples (e confiável). Por esse motivo optou-se inicialmente por um código detector e não corretor de erros. 1.1 Sequências de comprimento máximo O código detector de erro descrambler-scrambler tem seu conceito básico relacionado com as sequências de comprimento máximo (Maximum Length Sequences – MLS). MLS são sequências periódicas que pertencem à classe de sequências binárias pseudoaleatórias. As sequências MLS são geralmente geradas a partir de shift-registers com realimentações lineares (PETERSON; WELDON, 1961). Considere um shift-register, ou registrador de deslocamento, que possui uma entrada e d = 7 saídas e as saídas 3 e 7 realimentadas através de “ou-exclusivo” na sua entrada. O operador “ou-exclusivo” de k entradas tem sua saída igual a 1, se o número de entradas em “1” for ímpar, e tem sua saída igual a zero, se esse número de entradas em “1” for par. Se as realimentações (ou taps) do registrador forem escolhidas adequadamente, a sequência gerada será uma sequência de comprimento máximo
*Autor a quem a correspondência deve ser dirigida: innova_victor.valenzuela@tropiconet.com 1 Os equipamentos Vectura são desenvolvidos no escopo do Projeto CONVERTE – Apoio da FINEP com recursos do FUNTTEL. Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
register do mesmo tamanho e com as mesmas realimentações que a primeira), mas deslocada de i bits da primeira, com i sendo não múltiplo do período da sequência. A soma em “ou-exclusivo” das duas sequências é igual à mesma sequência MLS, mas com um atraso j, em que j é diferente de zero e diferente de i. A Figura 1 mostra esse comportamento. Considerou-se a primeira sequência com defasagem 0.
(MLS). Isso significa que será uma sequência periódica que se repete a cada 2 d - 1 períodos de bit, onde "d" é o número de posições do registrador. Dessa forma, pode-se escrever: S.∆0 = S.∆3 ⊕ S.∆7 Fazem parte dessa expressão o operador de atraso ∆, as funções produto (por exemplo em S. ∆0) e a soma módulo 2 (“ou-exclusivo”). Nessa matemática, as variáveis (valores de S) podem assumir unicamente os valores 0 e 1 (correspondentes ao Campo de Galois GF (2)). Os sistemas desenvolvidos dentro dessa matemática são lineares (ZUFFO, 1974). Pode ser mostrado (GOLOMB, 1967) que, para que a sequência gerada pelo registrador seja uma MLS, as realimentações devem corresponder a um polinômio primitivo em GF (2). As sequências MLS possuem várias propriedades interessantes. Entre elas, as seguintes são importantes neste trabalho: • O número de bits “1” em um período (de 2d -1 bits) é igual a um mais o número de bits “0”. Ou seja, temos 2d -1 bits “1” e “2d-1 -1” bits “0”. Dependendo do conteúdo inicial do registrador, a sequência é iniciada em um ponto diferente, mas sempre é gerada a mesma sequência de período “2d-1” bits. Uma particularidade é quando o registrador tem conteúdo inicial com todos os bits iguais a zero. Nesse caso, o registrador não sai desse estado e a sequência gerada é uma sequência de zeros.
•
Considere uma sequência MLS e outra sequência MLS igual (gerada por um shift-
Defasagem j da terciera seqüência MLS
•
•
Como pode ser visto na Figura 1, a defasagem da terceira MLS se distribui de forma esparsa. Em uma aproximação pseudoestatística pode ser considerado que a defasagem j da MLS, resultante da soma de MLSs com defasagens 0 e i, se distribui de forma aleatória e uniforme, entre 1 e 2d -1.
•
Por extensão, a soma de 3 ou mais versões da mesma MLS, defasadas entre si, é igual à mesma MLS com uma outra defasagem.
1.2 Scrambler-descrambler Em função de suas propriedades de pseudoaleatoriedade, as sequências MLS possuem varias aplicações. Uma variação dessas sequências, em que a máquina de estado passa a receber sinais de entrada externos, é o do embaralhador (scrambler) e desembaralhador (descrambler) de sinais. Como no caso das sequências MLS, esses circuitos utilizam também registradores com realimentações lineares realizadas a partir de “ou-exclusivos”. Em algumas aplicações, é conveniente que os sinais transmitidos não possuam sequências grandes de bits “1” ou bits “0”. Nesses casos, podem ser usadas configuração scrambler do
120 100
80
60
40 20
0 0
20
40
60
80
100
120
Defasagem i da segunda seqüência MLS
Figura 1 Defasagem da MLS resultante da soma de duas MLSs defasadas de i
50
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
SB = SA ⊕ ST. ∆3 ⊕ ST. ∆7 ⊕ ST. ∆3 ⊕ ST. ∆7
palavra de "d" bits, mas sempre deve ser usada a mesma palavra. O tamanho e conteúdo dessa palavra independem da quantidade “b” de bits da sequência original. Sem perda de generalidade, vamos considerar que essa palavra seja igual a todos os bits iguais a “1”. Após o acréscimo desses "d" bits, o sinal é aplicado ao codificador (descrambler), conforme Figura 3. No início de cada mensagem, os shift-registers do codificador e do decodificador devem ser levados à mesma condição inicial. Por convenção, definiu-se que essa condição é a palavra com todos os bits iguais a “0”. No exemplo da Figura 3, as equações polinomiais que representam esse circuito são:
ou seja,
ST = SA ⊕ SA. ∆3 ⊕ SA. ∆7
SB = SA
SB = ST ⊕ SB. ∆3 ⊕ SB. ∆7
lado da transmissão e descrambler no lado da recepção, conforme Figura 2. Tanto o descrambler como o scrambler utilizam shift-registers com realimentações lineares. No entanto, nessa configuração, os dois circuitos possuem sinais de entrada: SA no caso do scrambler e ST no caso do descrambler. Pode ser verificado no exemplo da Figura 2 que: ST = SA ⊕ ST. ∆3 ⊕ ST. ∆7 SB = ST ⊕ ST. ∆3 ⊕ ST. ∆7
CLK
Scrambler
SB = SA ⊕ SA. ∆3 ⊕ SA. ∆7 ⊕ SB. ∆3 ⊕ SB. ∆7 ou seja, SB. (1 ⊕ ∆3 ⊕ ∆7) = SA. (1 ⊕ ∆3 ⊕ ∆7)
SA
e, portanto, SB = SA
CLK
Descrambler
SB
Figura 2 Configuração scrambler-descrambler
1.3 O código descrambler-scrambler O código descrambler-scrambler (VALENZUELA, 1987) é um código polinomial no qual o sinal original (source sequence) é fornecido ao codificador em blocos. Esse código permite que cada bloco tenha um comprimento diferente, sendo necessário para isso que o decodificador saiba em que ponto inicia e em que ponto termina cada bloco. Para efeito de análise, considere-se um comprimento genérico de “b” bits. Nesse código, no codificador, que passa a ser o descrambler, é acrescentada uma palavrapadrão de “d” bits fixos imediatamente após os “b” bits. Esses "d" bits podem ser qualquer
Isso significa que, assim como no caso scrambler-descrambler, a saída SB é igual à entrada SA, o que também vale para qualquer outro polinômio P (∆), desde que usado tanto no codificador como no decodificador. O sinal ST também apresenta um embaralhamento, porém menor do que no caso scrambler-descrambler. De fato, cada bit do sinal SA afeta o sinal ST, unicamente, cada vez que passa por uma das realimentações do registrador. Isso não é problema, pois o objetivo do código não é obter o embaralhamento do sinal transmitido. No caso em que o scrambler é usado na transmissão, o sinal ST é mais embaralhado, pois a informação dos bits do sinal SA, como faz parte da realimentação, fica em “loop eterno” no registrador. Exatamente por causa dessa propriedade, nesse código o scrambler é usado no decodificador. No caso de ocorrência de um ou mais erros de bit na transmissão, esses bits errados entram no loop de realimentações do shift-register e se propagam até o final do bloco, ou seja, até os últimos "d" bits. Se é encontrada uma palavra diferente da palavra original de verificação (que por convenção é “todos os bits iguais a 1”), o erro é detectado. O fato de o polinômio usado ser primitivo, além de implicar em um efeito melhor de propagação do erro, diminui as probabilidades de não detecção, conforme indicado mais adiante.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
51
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
Descrambler (Codificador)
SF
Insere “d” bits fixos no fim de cada bloco
SA
ST
Scrambler (Decodificador)
SS
Retira “d” bits fixos no fim de cada bloco Detecta e informa ocorrência de erros
SB
Informa mensagem com erro Figura 3 Codificador e decodificador descrambler-scrambler
1.4 Análise no caso de presença de erro de transmissão Para avaliar a eficiência desse código, é importante calcular a probabilidade de não detecção dos erros. Pode ser facilmente provado que, na ausência de erros, existe uma relação biunívoca entre o conjunto de possíveis mensagens em SA e o conjunto de possíveis mensagens em ST. Isso significa que, tomando m como o número de bits na mensagem codificada (m = b + d) para cada uma das 2 m-d possíveis mensagens em SA, existe uma e somente uma mensagem em ST, e vice-versa. Na presença de erros, o sinal recebido de SR é diferente de STE e tem-se, na entrada do decodificador, uma sequência “ST com erros” denominada STE. Um erro não será detectado unicamente se a mensagem com erro em STE corresponder a uma das mensagens permitidas em ST e, portanto, for esperada em SR. Nesse caso, a mensagem (após decodificação) corresponderá a uma mensagem permitida em SB, mas não a uma mensagem correta. Então, se todos os tipos de erro têm a mesma probabilidade, a probabilidade condicional de um erro não ser detectado, dado que houve erro, é (onde os termos -1 no numerador e denominador correspondem à exclusão da mensagem
52
correta): P (erro não detectado/erro existe) = (2m-d- 1) /(2m ≅ 2-d - 2-m ≅ 2-d para m >> d. Portanto, nesse caso, a probabilidade de haver um erro não detectado diminui exponencialmente com o aumento de "d" e é praticamente independente de m, desde que m>>d. É interessante estabelecer, para cada quantidade de bits errados por mensagem, a probabilidade do erro não ser detectado. A Figura 4 mostra um modelo em que o processo de ocorrência de erros é representado por uma sequência de erro SE somada (em “ouexclusivo”) com a sequência ST. Nos períodos de bit em que SE = 1, o bit correspondente de ST é invertido, provocando o erro. Essa soma com o sinal SE corresponde ao modelo do canal de transmissão. Note que está se abstraindo o atraso de transmissão e pressupondo que no lado da recepção há uma infraestrutura de timing que permite trabalhar em sincronismo com o lado de transmissão. O canal é considerado do tipo sem memória, dado que a distribuição de probabilidades atribuídas para o erro em cada bit é considerada independente do histórico de símbolos transmitidos anterior e posteriormente. Denominando-se o sinal na saída do
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
decodificador de SB, no caso de ausência de erro, e SBE, no caso de presença de erro, obtêm-se as expressões: Na ausência de erro: SB = ST ⊕ SB. P (∆) Na presença de erro: SBE = STE ⊕ SBE. P (∆) em que P (∆) é o polinômio gerador. Somando as duas expressões tem-se: SB ⊕ SBE = (ST ⊕ STE) ⊕ (SB ⊕ SBE). P (∆) Denomina-se SB ⊕ SBE = SER. SER é, portanto, a sequência de erros observada na saída do decodificador. Ou seja, SER é uma sequência que possui bits “1” nos intervalos de bit, onde SB apresenta erros, ou seja, onde é diferente de SA. Como STE = ST ⊕ SE, então SER = SE ⊕ SER. P (∆).
Descrambler (Codificador) SA
lineares, pode ser analisado o comportamento separado do scrambler contendo as sequências ST e SE como entradas de dois circuitos iguais, conforme Figura 5. Note que se trata de uma representação teórica, pois na prática não se conhece SE e sim, unicamente, sua soma com ST (sinal STE). No entanto, isso nos permite fazer, em termos de comportamento da taxa de erros, uma análise separada para os sinais de erro. Em correspondência a cada mensagem enviada pelo codificador (bloco de m = b+d bits), pode-se considerar que há mensagens do mesmo tamanho em SE e SER. Nos casos sem erro, as duas mensagens SE e SER têm todos os seus bits iguais a zero. Mensagens com erro não detectado correspondem a mensagens SE que não têm todos os seus bits iguais a zero, mas que provocam mensagens em SER com seus últimos "d" bits iguais a zero. 1.4.1
ST SE
Canal de transmissão SR = STE Scrambler (Decodificador)
SB Figura 4 Representação de canal de transmissão ruidoso
Essa relação entre SER e SE é a mesma relação existente entre SB e ST. Isso significa que, se a sequência SER for aplicada ao descrambler, sua sequência de saída deverá ser SE, e se a sequência SE for aplicada ao scrambler, a sequência de saída deverá ser SER. Essa conclusão é muito interessante, mostrando que, em uma relação efeito-causa (em contraposição a causa-efeito), a partir do sinal SER, pode ser obtido o sinal SE (que provocou o sinal SER). A sequência STE, na entrada do scrambler (decodificador) é igual à soma das duas sequências ST e SE. Por se tratar de circuitos
Erros simples não detectados
Todos os erros simples (ou seja, com um único bit = 1 na mensagem em SE) são detectados por esse código. Isso pode ser provado considerando a relação SER = SE ⊕ SER. P (∆) da seguinte forma: dado que o conteúdo inicial do registro é, por convenção, formado por todos os bits iguais a “0”, enquanto a sequência SE não apresenta seu único bit “1”, seu conteúdo permanecerá com todos os bits iguais a zero, porque nessa situação o scrambler se comporta como um gerador de sequência MLS em seu estado de fuga “todos os bits iguais a zero”. No instante em que o único bit “1” da mensagem SE ocorre, o registrador passa ao estado em que sua primeira entrada é 1 e todas as outras 0. Desse ponto em diante, a sequência SE volta a zero e o scrambler passa a se comportar como um gerador de sequência MLS que nunca volta ao estado “tudo 0”. Isso significa que no instante de detecção, no fim da mensagem, o registro terá um conteúdo diferente da palavra-padrão esperada. 1.4.2
Erros duplos
A análise de erro duplo pode ser realizada considerando as propriedades de separação linear (como a ilustrada na Figura 5). A sequência SE, que nesse caso possui dois bits “1” em sua mensagem, pode ser considerada a soma (em “ou-exclusivo”) de duas sequências SE1 e SE2, cada uma com um único bit “1”, e pode ser usado um raciocínio semelhante ao da análise de erro simples. A única situação em que a palavra de "d" bits no fim da mensagem transmitida pode ser mascarada, implicando em um erro não detectado, é com conteúdos dos registros
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
53
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
relativos a SE1 e a SE2 iguais nos últimos "d" bits da mensagem, pois somente assim sua soma se anulará. Isso significa que as sequências MLS ativadas pelos bits “1” em SE1 e SE2 devem estar em fase, o que somente pode ocorrer se a distância entre esses bits “1” em SE1 e SE2 for um múltiplo do período p = 2 d -1 bits da MLS. Pode ser verificado que o número N2 de erros duplos que não podem ser detectados é (considerando I = Int [m/p]): Para m ≤ 2d -1 N2 = 0; Para m > 2d -1 N2 =
I + 1 I + [( I + 1). p − m]. = ( m − I . p ) 2 2 =
I [2.m − ( I + 1). p] 2 ST
SB
SE
SBE
SER
Figura 5 Separação linear Supondo-se, como exemplo, que as mensagens usadas em um dado sistema têm comprimento máximo de b = 512 bytes, ou seja 4.096 bits, se for usada uma palavra de verificação de d = 16 bits tem-se: m = b+d = 4.096+16 = 4.112 < 65.535 = 216 -1 Ou seja, não haverá mensagens com erro duplo não detectadas. No entanto, se o registrador tiver d = 7 bits, usando a expressão para m > 2d -1, obtêm-se que o número de mensagens com dois erros não detectados é 64.240 mensagens com dois erros não detectadas. De acordo com a (função) Combinação {4.103;2} = 8.415.253 erros duplos possíveis, não será detectado um de cada 8.415.253 / 64.240 = 130,997 erros duplos. Note que esse valor se aproxima de um a cada 2d. Considerando que todos os possíveis erros duplos têm a mesma probabilidade, tem-se: Prob (erro duplo não detectado/ocorreu erro duplo) =
=
I [2.m − ( I + 1). p] m.(m-1)
1.4.3
Erros de distância maior que dois
Para o caso de mais de dois erros em uma mensagem, a quantidade de erros não detectados depende do polinômio primitivo usado nas realimentações dos shift-registers. Como indicado anteriormente, a soma de duas versões da mesma sequência MLS defasadas de i bits, sendo i não múltiplo do período da sequência, é igual a uma terceira versão da mesma MLS, que não se encontra em fase com nenhuma das duas anteriores. O mesmo vale para a soma de mais de duas sequências MLS. Eventualmente, as fases podem ir se compondo de forma que a soma de todas as MLS, menos a última, seja uma MLS que esteja exatamente em fase com essa última. Nesse caso, a soma final será uma sequência que terá todos os bits iguais a zero a partir do início da última MLS. Exatamente, esse é o caso em que a ocorrência de mais de dois erros na mensagem provoca a não identificação de erros realizada com base nos "d" últimos bits da mesma. Quando o número de erros na mensagem é maior ou igual a 3, torna-se difícil fazer uma determinação analítica da quantidade de erros não detectados. Em vez disso, para verificar como é esse comportamento, exercitaram-se exaustivamente (considerando todas as situações possíveis) alguns casos de código descrambler-scrambler. Para facilitar esses cálculos, utilizaram-se mais uma vez as propriedades lineares. Conforme a relação SE = SER ⊕ SER. P (∆), a partir do sinal SER (efeito) pode ser gerado o sinal SE (causa), que provocou o sinal SER. Com o objetivo de gerar todas as possíveis mensagens de erro em SER não detectadas, para um decodificador com mensagens de m = 22 bits relativos a b = 15 de sequência original mais d = 7 de palavra-padrão (todos os bits iguais a zero), foram geradas todas as possíveis mensagens em SER que possuem 15 bits (exceto a mensagem todos os bits iguais a zero – pois ela corresponde ao caso sem erro) e finalizam com 7 zeros (e, portanto, não são detectadas). O fato de a mensagem SER ter todos os últimos 7 bits iguais a zero, significa que o decodificador interpretará ausência de erro, enquanto o erro de fato existe, pois pelo menos um dos 15 bits da sequência original é diferente de zero. São, portanto, os casos em que se tem interesse. Esses cálculos foram realizados usando computador, tendo sido analisados os casos de dois polinômios, 1 ⊕ ∆6 ⊕ ∆7 e 1 ⊕ ∆3 ⊕ ∆7, conforme Figura 6, que mostra a probabilidade condicional para cada uma das distâncias de erro. A linha pontilhada corresponde ao código com polinômio 1 ⊕ ∆3 ⊕ ∆7. É possível constatar que as distribuições de
que se aproxima de 2-d quando m cresce.
54
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
0,02000
Prob (não detecta/caso há) erros)
0,01600
0,01200
0,00800
0,00400
0,00000 0
5
10
15
20
Número de bits
Figura 6 Probabilidade condicional de não detecção em função do número de erros
probabilidades são levemente diferentes entre esses dois polinômios. Pode ser constatado que não há erros simples (distância 1) não detectados. Também não há erros duplos não detectados, pois m = 22 < 2d -1 = 127. De um total de 4.194.303 erros possíveis, 32.767 não são detectados. Para valores entre 6 e 18 erros por mensagens, essas probabilidades se aproximam bastante de 2-7 @ 0,008. Como pode ser visto, o pior dos casos é aproximadamente o dobro desse valor. Os códigos descrambler-scrambler podem ser classificados como códigos lineares polinomiais que se aplicam a mensagens originais, de tamanho que pode ser fixo ou variável. Consequentemente, o tamanho das palavras código, ou seja, das palavras resultantes da codificação, pode ser fixo ou variável. Esses códigos apresentam distância mínima de Hamming igual a 2 entre todas as palavrascódigo, significando que é possível detectar todos os erros simples. Se as mensagens originais são mantidas com tamanho menor que 2d-1, a distância mínima é igual a 3, significando que é possível detectar todos os erros duplos. Um diferencial significativo desse código é que, mesmo nos casos em que o erro é mascarado, partes da mensagem propriamente dita (trecho de “b” bits) são substancialmente alteradas, pois são somadas a sequências MLS. Isso significa que verificações de consistência realizadas em camadas mais altas do controle da comunicação poderão, com uma probabilidade muito maior, detectar inconsistências e, portanto, invalidar essa mensagem. Esse recurso também é utilizado nos equipamentos Trópico e Vectura. 2
Correção de erros baseada no código descrambler-scrambler
O uso do código descrambler-scrambler como corretor de erros é baseado na capacidade de as sequências MLS poderem ser reconstituídas
exatamente tanto “para trás” quanto “para frente”, a partir de qualquer palavra de "d" bits seguidos da sequência (“d” sendo o grau do polinômio gerador). A análise do código como corretor se baseia também nas propriedades de linearidade das máquinas de estado implementadas por shiftregisters realimentados e, principalmente, na separação linear de sequências. A correção de erros usa como base o processo de detecção. Além de identificar se a palavra recebida é diferente da palavra-padrão (todos os bits iguais a 1), o decodificador também detecta qual é exatamente a palavra de erro. Suponha que se utilize um código com d = 7 e que uma mensagem recebida em SBE tenha em seus últimos “d” bits uma palavra de verificação igual a 1011001. No caso de ausência de erros, essa sequência deveria ser 1111111. Ou seja, a palavra de erro é 0100110, que possui bits “1” nas posições com erro. Faz-se inicialmente a análise para erro simples, conforme Figura 7, ou seja, considerando-se que o sinal SER teve um único bit “1” em sua mensagem, que provocou um único bit errado no sinal STE. Consequentemente, no instante de ocorrência desse pulso, e em uma análise de separação linear, o shift-register ao carregar esse bit “1” passa para o estado 1000000 e a partir daí passa a gerar a sequência MLS relativa ao sinal SER. Com base na palavra de erro de 7 bits extraída no fim da transmissão, é possível não somente reconstruir a sequência SER “para trás” como também identificar exatamente o ponto em que o erro ocorreu. Se fosse um código CRC, em que os primeiros “b” bits transportam a mensagem original sem alteração, com base nessa palavra de erro, seria possível identificar o instante de erro e corrigir exatamente o bit correspondente na mensagem recebida.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
55
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
No código descrambler-scrambler, como os bits da mensagem original também são alterados pelo erro, não somente o bit correspondente ao instante de erro deve ser corrigido, como todos os bits a partir dele. Ou seja, é preciso voltar ao sinal SBE, “limpando” todo o trecho de bits errados entre o fim da mensagem e o instante do erro, conforme Figura 7, que mostra o conceito de “espelho” próprio desse novo código corretor. A partir do instante de detecção do erro, os sinais SER e SBE passam a ser tratados “em espelho”, ou seja, de trás para frente, e o sinal SBE é limpo até o ponto de erro relativo ao estado 0000001 no shift-register. Para isso, cada mensagem SBE precisa ser armazenada na recepção até que esse tratamento seja realizado. Nesse ponto, lançou-se mão de mais uma propriedade interessante das sequências MLS. Se o shift-register com realimentações dadas por um polinômio gera uma sequência MLS, um shift-register com as realimentações dadas por um “polinômio simétrico” gera a sequência ao contrário, ou seja, de “trás para frente”, como desejado. Esse recurso tem algumas aplicações práticas (XIANG et al., 2003). Exemplificando, se o shift-register com realimentações dadas pelo polinômio x0 + x3 + x7 gera uma sequência MLS, o shift-register com
realimentações x (7-0) + x (7-3) + x (7-7) = x0 + x4 + x7 gera a sequência espelho. Uma propriedade extremamente interessante desse código corretor é que, assim como o código detector, ele pode ser usado para mensagens de tamanho variável. Uma condição para o funcionamento desse código corretor é a de que o tamanho máximo das mensagens transmitidas, incluindo a palavrapadrão de verificação de "d" bits inserida no fim da mensagem, seja menor do que 2d -1, ou seja, menor do que o período da sequência MLS correspondente. De fato, se essa condição não fosse atendida, poderia haver ambiguidade na identificação do ponto em que ocorreu o erro. A decodificação que utiliza um “gerador de MLS espelho” apresenta as seguintes características: • A mensagem recebida em SBE deve ser carregada inteira em um buffer ou memória. • Identifica a palavra de erro. • Carrega essa palavra de erro de forma invertida no gerador de MLS espelho. • Gera a MLS espelho, correspondente ao sinal SER espelho, a partir desse gerador, até encontrar a palavra de "d" bits correspondente a um bit “1” mais “d-1” bits zero. Nesse ponto é interrompido o processo de correção.
Período m d
SE MLS
SER
1000000
0100110
Espelho
trecho de trecho SBE que precisa ser limpo de SBE que precisa ser
SBE
li
d
MLS espelho (de limpeza)
SER espelho SBE espelho
0000001
0110010
100110 1001101 1
trecho SBEespelha ser trecho de SBE espelho a ser limpo d li d
SB espelho “fim” “fim”da da mensagem mensagem espelho lh
“inicio” da mensagem “início” da mensagem espelho lh
Figura 7 Processo de limpeza em espelho
56
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
•
Enquanto tal ponto não for encontrado, a sequência SBE deverá ser somada em “ouexclusivo”, bit a bit, de trás para frente, com a sequência SER espelho. A Figura 8 oferece um exemplo de implementação do código corretor. SA = 011100 1111
ST = 010011 0100
Representa o erro no 3 bit
SE = 001000 000 Canal de Transmissão SR = STE = 011011 0100 Scrambler (Decodificador) 1010
SBE = 010011 1010
1010 No início do espelhamento SRE espelho = 1010 11100 SBE espelho = 0101 110010
Corrige até aqui
SB espelho = 1111 001110
SB 011100 1111
Figura 8 Implementação de código corretor de erros
Considere uma mensagem com b = 6 bits e d = 4 bits de palavra-padrão de verificação, totalizando m = 10 bits de mensagem e com o polinômio primitivo correspondente igual a 1+x1+x4. Considere ainda, shift-register de codificação (descrambler) e de decodificação (scrambler), ambos com conteúdo inicial 0000. Considere uma mensagem original transmitida igual a 011100, sendo acrescido 1111 nos quatro últimos bits correspondentes à palavra-padrão de verificação. De acordo com o polinômio gerador, é gerada no descrambler a mensagem 010011
0100 no sinal ST. Suponha-se que o sinal SE apresente um erro, ou seja, um bit “1” no terceiro intervalo de bit, significando que o terceiro bit de ST é invertido, teremos, em função do polinômio gerador, que STE = 011011 0100. No scrambler do decodificador é gerada em correspondência a mensagem SBE = 010011 1010. A partir do terceiro bit dessa mensagem os bits são somados com a sequência SER. Até esse ponto, a sequência SER não é conhecida. Na recepção, um shift-register espelho gera a mensagem SER espelho. Para isso, a palavra de erro resultante do “ou-exclusivo” dos últimos 4 bits de SBE com a palavra-padrão 1111 é carregada no registro espelho, mas invertida, pois deve-se gerar a sequência para trás (1010). O shift-register espelho tem como realimentações o polinômio simétrico 1+x3+x4 e, portanto, gera a MLS para trás, correspondendo ao espelho de SER: 1010 111100. Quando o padrão 100 é detectado em SER espelho significa que foi encontrado o ponto de erro, que corresponde ao oitavo bit (ou terceiro de frente para trás). Até esse oitavo bit a sequência SER espelho é somada com a sequência SBE espelho, gerando a sequência SB espelho 1111 001110. A partir do oitavo bit, a sequência SB espelho é mantida igual a SBE espelho. Finalmente SBE espelho é “desinvertida” e os bits 1111 de verificação são retirados, resultando na sequência original 011100. Erros múltiplos, com mais de um erro por mensagem podem, com probabilidade dada pelo código detector, ser detectados, mas não podem ser corrigidos. De fato, numa análise de separação linear semelhante à realizada para o detector de erros, cada um dos dois ou mais pulsos de SE desencadeia em SER uma sequência MLS iniciada na palavra de “d-1” bits “0” seguidos de um bit “1” no registrador do decodificador (scrambler). A sequência resultante da soma dessas MLS, conforme visto anteriormente, é a própria MLS deslocada de outro valor. Quando essa MLS atinge o final da mensagem, o registrador apresentará uma palavra a partir da qual não se consegue reconstituir a SER espelho. No caso de erros múltiplos, há situações em que o erro pode ser detectado e outras em que o erro não é detectado. Nos casos em que o erro múltiplo não é detectado no código detector, o erro também não será detectado no código corretor pois a palavra de verificação não é alterada. Cabe em seguida analisar a probabilidade de, havendo alteração na palavra de verificação, essa palavra ser corrigida erroneamente, ou seja, não detectada. Isso ocorre quando o decodificador faz o processo de limpeza pensando que está corrigindo um erro simples, mas essa correção está errada. O erro múltiplo será detectado como tal e,
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
57
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
portanto, não será corrigido, quando, a partir da palavra de erro no registrador é gerada a SER espelho e não se encontra a palavra “1” seguida de “d-1” zeros até o fim da mensagem em SEB espelho. De acordo com a análise feita com base na Figura 1, a MLS resultante da soma de mais de um pulso de erro tem uma fase distribuída de forma pseudoaleatória. Isso significa que o ponto de marcação de erro correspondente a palavra de um bit “1” seguida de “d-1” bits “0” pode se encontrar a uma distância (em períodos de bit) entre “1” e “2d -1” períodos. Quando essa distância é maior do que m, essa palavra não é encontrada e a condição de erro pode ser deduzida. Podemos concluir que a probabilidade de não detecção deve ser aproximadamente de b/2d. Suponha, por exemplo, que b = 1.024 e d = 16, ou seja, 2d = 65.536. Nesse caso a probabilidade de não detecção de erros múltiplos seria de aproximadamente 1.024 / 65.536 = 1 / 64. A probabilidade de não detecção pode ser diminuída aumentando o tamanho da palavra de verificação. No mesmo caso, por exemplo, para b = 1.024 e d = 32, a probabilidade de não detecção seria aproximadamente 1.024 / 4.294.967.296 = 2,38 x 10-7. Outra opção ao processo de espelhamento para implementar esse código é usar uma tabela que, a partir da palavra de erro detectada, indique em que posição ocorreu o erro. A palavra extraída do registrador de deslocamento (scrambler) pode ser usada como endereço dessa tabela (por exemplo, uma memória ROM) que fornecerá exatamente a posição da mensagem m na qual o erro deve ter ocorrido e a partir da qual a limpeza da sequência SBE deve ser realizada. A partir desse ponto, e agora de forma não espelhada, a sequência SBE deve ser gerada com a MLS a partir da palavra com “d-1” zeros e “1”. Quando o ponto indicado pela tabela está a uma distância maior do que o comprimento da mensagem m, a condição de erro pode ser identificada. Outro artifício para realizar mais rapidamente o processo de limpeza, que poderá ser usado tanto no caso do espelhamento como no caso do uso de tabela, é o de conversão do tratamento (máquinas de estado) de serial para paralelo, conforme Valenzuela (1994). Nesse caso, a limpeza pode ser feita, por exemplo, de byte em byte em vez de bit em bit. O código corretor de erros descramblerscrambler é um código polinomial de distância mínima de Hamming igual a 3 entre todas as palavras-código, pois consegue detectar todos os erros simples. Assim como no caso do código detector, um diferencial significativo desse código é que, mesmo nos casos em que o erro é mascarado e, portanto, não é corrigido ou é
58
corrigido erroneamente, partes da mensagem propriamente dita (trecho de “b” bits) são substancialmente alteradas, pois são somadas com sequências MLS. Isso significa que verificações de consistência realizadas em camadas mais altas do controle da comunicação poderão, com uma probabilidade muito maior, detectar inconsistências e, portanto, invalidar essa mensagem. 3
Caracterização dos códigos descramblerscrambler por meio de grafos-fatores
Os grafos-fatores correspondem a uma técnica que pode ser usada para representar sistemas codificados por meio de modelagens comportamental e probabilística. Para aplicar esse método aos códigos descrambler-scrambler, é construído em primeiro lugar o grafo-fator do codificador, posteriormente o do decodificador, e finalmente os dois são relacionados pelo modelo estatístico do canal de transmissão. Na mensagem, ou “bloco” de m = b+d bits, os m bits da mensagem original são considerados “variáveis”. É utilizado também o conceito de bits de “controle” que representam as equações de paridade. No caso dos códigos descrambler-scrambler, todos os bits da mensagem transmitida são considerados bits de controle e não somente os bits de verificação. Na construção de um grafo, em um dos lados são colocados os nós de variáveis, habitualmente representados por círculos e, no outro, são colocados os nós de controle, ou de paridade, habitualmente representados por quadrados. O número de linhas que confluem em um dado nó chama-se grau do nó e o número total de linhas do grafo é igual ao número de “1” da matriz de teste de paridade (ou matriz H – a ser definida) do código. Cada nó de variável está associado a um bit de mensagem e cada nó de paridade está associado a uma equação de paridade. No caso dos códigos descrambler-scrambler, essas equações estão relacionadas com os polinômios das sequências MLS utilizadas. Para encontrar o modelo de grafo-fator do código descrambler-scrambler (MACKAY, 2003), utilizase uma matriz m x m, cujas linhas são bases vetoriais para o código em questão. Essa matriz é denominada matriz de teste de paridade. Através de operações elementares “ou-exclusivo” podemos descobrir a matriz de teste de paridade do código descrambler-scrambler. Para ilustrar esse método foi usado um caso prático, considerando o código descramblerscrambler com configuração de geração do seguinte polinômio (Figura 8): ST = SA ⊕ SA. ∆1 ⊕ SA. ∆4 Assim, podemos representar os estados do registrador, conforme Tabela 1.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
Tabela 1 Representação de estados do codificador B1
B2
B3
B4
B5
B6
B7
B8
B9
B10
P1
0
B1
B2
B3
B4
B5
B6
B7
B8
B9
P2
0
0
B1
B2
B3
B4
B5
B6
B7
B8
P3
0
0
0
B1
B2
B3
B4
B5
B6
B7
P4
0
0
0
0
B1
B2
B3
B4
B5
B6
ST
B1
B1+B2
B2+B3
B3+B4 B1+B4+ B2+B5+ B3+B6+ B4+B7+ B5+B8+ B6+B9 B5 B6 B7 B8 B9 +B10
Observa-se que o estado inicial do registrador é 0000. O conteúdo do registrador após a introdução do i-ésimo bit da sequência de informação no codificador caracteriza o estado da mensagem ST, em um dado instante. Sabe-se que os bits de paridade inseridos no código descrambler-scrambler são, por convenção, todos iguais a 1. Fazendo ST7, ST8, ST9 e ST10 igual a 1, pode-se simplificar o resultado obtido. Assim, das expressões da última linha da Tabela 1 pode-se escrever: ST1 = B1 ST2 = B1+B2 ST3 = B2+B3 ST4 = B3+B4 ST5 = B1+B4+B5 ST6 = B2+B5+B6 ST7 = B3+B6+B7 ST8 = B4
ST9 = B5 ST10 = B6 Apesar de B7 ser igual a 1, em ST7 ele se mantém na equação porque não se cancela. Dessa forma, tem-se a matriz HC de teste de paridade do codificador da Figura 9. A matriz encontrada é de “baixa densidade”, isto é, a matriz apresenta mais ocorrências de “0” do que de “1”, o que é interessante, pois implica um algoritmo menos complexo. Observa-se que a análise para detecção de erro do código descrambler-scrambler não se resume apenas aos 4 últimos bits da palavra e toda a palavra-código é modificada. Dessa forma, o grafo-fator associado ao código descrambler-scrambler deverá ser a representação de toda a palavra-código, conforme Figura 10, que representa o lado do codificador em que se tem 10 bits de variáveis e 10 bits de controle.
Figura 9 Matriz de teste de paridade do codificador
Figura 10 Fator de grafo do codificador
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
59
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
Tabela 2 Representação de estados do codificador R1
R2
R3
R4
R5
R6
P1
0
R1
R1+R2
R1+R2+R3
R1+R2+R R2+R3+R R1+R3+R 3+R4 4+R5 4+R5+R6
R2+R4+R 5+R6+R7
R1+R3+R5+ R1+R2+R4+R6 R6+R7+R8 +R7+R8+R9
P2
0
0
R1
R1+R2
R1+R2+R R1+R2+R R2+R3+R 3 3+R4 4+R5
R1+R3+R 4+R5+R6
R2+R4+R5+ R1+R3+R5+R6 R6+R7 +R7+R8
P3
0
0
0
R1
R1+R2
R1+R2+R R1+R2+R 3 3+R4
R2+R3+R 4+R5
R1+R3+R4+ R2+R4+R5+R6 R5+R6 +R7
P4
0
0
0
0
R1
R1+R2+R 3
R1+R2+R 3+R4
R2+R3+R4+ R1+R3+R4+R5 R5 +R6
SB
R1
R1+R2
R1+R2+R3
R1+R2+R3+ R2+R3+R R1+R3+R R2+R4+R R4 4+R5 4+R5+R6 5+R6+R7
R1+R3+R 5+R6+R7 +R8
R1+R2+R4+ R2+R3+R5+R7 R6+R7+R8+ +R8+R9+R10 R9
R1+R2
Os nós de variáveis estão conectados aos nós de teste de paridade de controle se o elemento (i,j) da matriz H for igual a 1. Esses nós de controle são representados por quadrados e correspondem às operações “ou-exclusivo”, de acordo com o polinômio da sequência MLS usada no código. Da mesma forma que o codificador, o decodificador do código descrambler-scrambler pode ser representado como um grafo bipartido. Seguindo o mesmo procedimento e assumindo um registrador com a mesma configuração do
R7
R8
R9
R10
registrador do codificador, a Tabela 2 mostra as relações envolvidas. A última linha representa as relações entre os bits de controle e os de variáveis (entrada do decodificador). Tem-se, na Figura 11, a matriz HD de teste de paridade do decodificador. A Figura 12 ilustra o grafo-fator do decodificador. É bem mais complexo do que o do codificador devido à maior quantidade de “1” na matriz HD. O método dos grafos-fatores pode ser usado para analisar o comportamento estatístico dos códigos. Análises de probabilidade de não detecção ou não correção podem ser realizadas.
Figura 11 Matriz de teste de paridade do decodificador
Figura 12 Fator de grafo do decodificador
60
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
O meio de transmissão, por exemplo, o canal de sinalização da Plataforma Trópico ou Vectura, pode ser caracterizado como um processo estocástico, ao qual são associados: • um alfabeto de entrada A = {a1, a2, a3,...., an}; • um alfabeto de saída B = {b1, b2, b3,...., bn}; • uma distribuição de probabilidade P (A/B), que relaciona os símbolos que saem do canal em função dos símbolos que entram. Pode-se classificar o canal como do tipo sem memória, considerando que a distribuição de probabilidades atribuídas para esse canal é independente do histórico de símbolos transmitidos, ou seja, as probabilidades atribuídas ao canal, p (bj/ai), i=1,2,..n e j=1,2,...n, são independentes dos símbolos anteriores e posteriores transmitidos. Um canal simples, cujo modelo é largamente empregado, é o canal binário simétrico, descrito pelo diagrama abaixo. Considerando a probabilidade de um símbolo da entrada (0 ou 1) ser transmitido sem erro para a saída e “1-s” é a probabilidade de o símbolo ser transmitido com erro tem-se: p (0/0) =p (1/1) =s e p (0/1) =p (1/0) =1-s. Sendo um produto de fatores, essa probabilidade condicional conjunta também poderá ser representada por um grafo-fator e cada nó de paridade representa a função probabilidade condicional a priori p (bj/ai). Se os valores b
recebidos na saída do canal não são, de fato, variáveis, mas sim constantes, cada nó de paridade desse grafo apenas depende de uma única variável ai. Dessa forma, podemos representar o canal de sinalização de acordo com a Figura 13, na qual cada relação de bit de entrada para bit de saída tem associada uma probabilidade P (b/a). Agrupando o grafo-fator do codificador e do decodificador em série com o fator de grafo do canal binário simétrico e sem memória, obtém-se o grafo-fator global do código descramblerscrambler da Figura 14. Dessa forma, conforme proposto inicialmente, foi exemplificado como pode ser obtido o modelo global baseado em grafo do código descramblerscrambler. Em um trabalho futuro, poderá ser avaliada a viabilidade do uso desse modelo na análise probabilística da eficiência do código em questão. Conclusão e trabalhos futuros Foram apresentados neste artigo o código detector de erros descrambler-scrambler, sua utilização na comunicação interna de equipamentos Vectura e sua evolução para código corretor de erros. Foi apresentado também como esse código pode ser modelado usando análise de grafos-fatores.
P(bi/ai)
ai Figura 13 Fator de grafo do canal
Codificador
Canal
Decodificador
Figura 14 Fator de grafo global do código descrambler-scrambler
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
61
Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura
A grande simplicidade de implementação e a possibilidade de ser usado em sistemas de transmissão que envolvem mensagens de diferentes comprimentos motivaram o desenvolvimento desse código nos equipamentos Trópico e Vectura, que incluem centrais telefônicas, softswitches usados em redes NGN e pontos de transferência e tratamento de sinalização "intrusivos". Apesar de serem projetados para não apresentar erros de transmissão, esses equipamentos podem ser submetidos a condições bastante adversas em termos de ruídos elétricos, que podem levar a probabilidades não nulas de erros de transmissão. O uso comercial de equipamentos com o recurso de detecção de erros tem se mostrado eficiente nesses casos. Além disso, é apresentado um código corretor de erros que, baseado na mesma topologia descramblerscrambler, também pode ser usado em sistemas com diferentes comprimentos de mensagens. São destacadas características que diferenciam esses códigos. Como próximo passo, essa modelagem poderá ser usada para fazer uma melhor avaliação do desempenho desse código. Também poderá realizar as implementações sugeridas de tabela de identificação do ponto de ocorrência do erro em função da palavra final de erro e de aceleração do processo de decodificação usando paralelização de máquinas de estado, como sugerido em Valenzuela (1994). Agradecimentos A elaboração deste artigo foi feita dentro do
Projeto CONVERTE, realizado com apoio da FINEP e recursos do FUNTTEL. Os autores registram aqui seu reconhecimento a todos aqueles envolvidos na viabilização deste projeto e agradecem particularmente as revisões realizadas por Angelo Antônio Mantovani e Edson Porto Fassoni. Referências GOLOMB, S. W. Shift Register Sequences, Editora Holden-Day, 1967. MACKAY, D. J. C. Information Theory, Inference, and Learning Algorithms Cambridge University Press 2003. PETERSON, W.; WELDON E. Correcting Codes, MIT Press, 1961.
J.
Error
VALENZUELA, V. Error Detecting code for a Digital Transmission System Based on a descrambler-scrambler Configuration – Campinas, 1987, International Symposium on Information and Coding Theory. VALENZUELA, V. Serial to Parallel Conversion of State Machines using Multi-Jump FlipFlops, Rio de Janeiro, 1994 International Telecommunications Symposium. XIANG, N. et al. Time-reversal maximum-length sequence pairs for simultaneous acoustical dual source measurements. Acoustical Society of America Journal, Vol. 113, Issue 4, April 2003. ZUFFO, J. A. Subsistemas Digitais e Circuitos de Pulso, Editora USP, 1974.
Abstract This article describes a new error correcting code based on a descrambler-scrambler structure. It describes also its modeling in terms of factor graphs. This code corresponds to an evolution of the descrambler-scrambler error detecting code previously developed for the Vectura equipment. For this purpose the basic concepts are initially described as well as the motivation of these codes, particularly in the Vectura equipment internal processor network. Furthermore, the error detecting code utilized in such network and a new error correcting code are described. Finally, an analysis is made of the use of factor graphs to model such code. With the presentation of the error detection and error correction codes, their efficiency is analyzed using an approach based on the characteristics of the maximum length pseudo random sequences. Key words: Error detecting code. Error correcting error. Factor graphs. Descrambler-scrambler.
62
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 49-62, jan./jun. 2009
Análise dos efeitos biológicos e genômicos em amostras de sangue submetidas a níveis controlados de radiação emitida por sistemas de telefonia celular Antônio Marini de Almeida*, Cássia de Lourdes Campanho**, Raquel Mary Rodrigues**, Vanessa Cristina Franco**, Bruno Peres dos Santos**, Juliana K. R. Heinrich** Este trabalho apresenta a investigação dos efeitos biológicos da radiação eletromagnética produzida por sistemas CDMA e AMPS de telefonia celular, em culturas de células expostas durante 72 horas a taxas de absorção específica (SAR) variando de 0,8 a 10 W/kg. Foram investigadas instabilidades genômicas pela técnica de citogenética convencional e FISH (hibridização in situ por fluorescência) em amostras de sangue de 10 doadores. A instabilidade genômica é um dos primeiros eventos que ocorrem na iniciação de tumores e, por essa razão, foram analisadas: a frequência e o tipo de anomalias cromossômicas, a frequência de micronúcleos, a aneuploidia e o status dos genes TP53, HER-2/neu e C-MYC em linfócitos submetidos a campos de RF em um sistema de exposição controlado e altamente monitorado. Nossos resultados demonstram um efeito dose-dependente para a ocorrência de anomalias no DNA e resultados positivos relevantes foram encontrados apenas acima dos limites de SAR estabelecidos pelas regulamentações. Palavras-chave: Radiação não ionizante. Efeitos biológicos. Campos eletromagnéticos. Introdução Estudos in vitro são importantes para delinear possíveis danos causados pela radiação não ionizante ou campos de radiofrequência (RF) e suas interações com os sistemas biológicos tais como células, tecidos e organismos. A principal vantagem desses estudos é a possibilidade de controlar quase todas as variáveis e condições dos testes para descartar interferências e delinear os alvos da investigação para serem explorados por estudos in vivo e clínicoepidemiológicos. Instabilidade genômica (IG) tem sido encontrada principalmente em células tumorais e é caracterizada por acúmulo de múltiplas trocas que convertem o genoma de uma célula normal em um genoma instável (SMITH et al., 2003). Essa instabilidade é caracterizada por alterações genéticas, como rearranjos cromossômicos, aneuploidia, aumento da frequência de micronúcleos, instabilidade de microssatélite, mutações, amplificações gênicas, trocas na transcrição de genes, transformação e morte celular na primeira e nas subsequentes gerações de células após o insulto inicial (HUANG; SNYDER; MORGAN, 2003). Investigações in vitro em diferentes sistemas celulares demonstraram associações tanto positivas quanto negativas para danos à célula, levando à IG após exposição à RF, embora
muitos desses resultados tenham sido atribuídos a efeitos térmicos. Esses grupos sugeriram que a RF não é mutagênica em si e que os efeitos adversos dessa exposição devem-se ao aquecimento causado pela exposição das células à alta frequência ou a campos de alta intensidade (IVASHUCK et al., 1997; BRUSICK et al., 1998; MOULDER et al., 1999; BLETTNER; BERG, 2000). Por outro lado, a aneuploidia do cromossomo 17 foi observada em vias dose-dependentes com alterações relacionadas à segregação cromossômica, sugerindo que a RF pode interferir no ciclo celular e causar danos cromossômicos e IG em experimentos com a temperatura do ambiente controlada (MASHEVICH et al., 2003). Outros eventos foram observados e associados com a exposição à RF dose-dependente como: efluxo de moléculas transmembrana, erros de transcrição, transformação celular, mudanças na atividade enzimática, fosforilação da hsp27 (proteína heat shock 27) e aumento dos níveis de mRNA do gene FOS (GOSWANI et al., 1999; PRABHAT et al., 1999; FRENCH et al., 2001; LESZCYNSKI et al., 2002; DI CARLO et al., 2002). Há uma grande preocupação considerando exposição à RF e tumorigênese e, como a instabilidade genômica é um dos primeiros eventos ocorridos na formação do tumor, foi investigada a frequência de danos
* Autor a quem a correspondência deve ser dirigida: amarini@cpqd.com.br ** Laboratórios Clínicos Especializados – Citogenética – CAISM – Universidade Estadual de Campinas – Unicamp Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 63-68, jan./jun. 2009
Análise dos efeitos biológicos e genômicos em amostras de sangue submetidas a níveis controlados de radiação emitida por sistemas de telefonia celular
A população do estudo consistiu em 10 indivíduos saudáveis, homens e mulheres, não fumantes, que não haviam sido submetidos a exames de raio-X nos últimos 12 meses. O estudo foi aprovado pela Universidade e pelo Comitê de Ética Nacional (CONEP). Os participantes foram informados dos objetivos do estudo e foi solicitada a assinatura do termo de consentimento livre e esclarecido. Amostras de sangue venoso foram coletadas em tubos heparinizados codificados e divididas para serem utilizadas em diferentes técnicas como amostras teste, sham-exposed e controle.
foram analisadas. Para a análise FISH, foram utilizadas sondas gene específicas e para o respectivo centrômero do cromossomo de origem, para os genes TP-53, HER-2/neu e CMYC (Qbiogene), de acordo com as instruções do fabricante, em forma de minipreparação. Células com mais de dois sinais de hibridização foram reportadas com amplificação. Para os ensaios de aumento da frequência de micronúcleos, as culturas de linfócitos de curta duração foram estabelecidas como descritas anteriormente para a análise citogenética convencional. No entanto, adicionou-se citocalasina B (Sigma) após 44 horas do estímulo inicial. As células foram submetidas ao choque hipotônico e fixadas apenas em metanol, em três lavagens sucessivas. As células foram coradas em Giemsa-Wright a 5% por 6 minutos. Para cada doador, 1.000 células foram analisadas e as frequências médicas para cada tipo de exposição foram obtidas.
1.2 Análises citogenéticas
1.3 Sistema de exposição
Citogenéticas: culturas de curta duração foram estabelecidas utilizando 0,5 ml de sangue periférico em meio de cultura HAM F-10 (Nutricell) suplementado com fitohemaglutinina (Invitrogen) e 10% de soro fetal bovino (Nutricell). As células foram coletadas após 72 horas de estímulo e colcemid (Invitrogen) foi adicionado às culturas aproximadamente uma hora antes da fixação e processamento finais. As culturas foram submetidas ao choque hipotônico em solução de KCl 0,075 M por 10 minutos a 37 oC e fixadas em metanol: ácido acético (3:1) em três lavagens sucessivas. Para a análise citogenética convencional, os linfócitos foram corados em corante Giemsa-Wright a 5% por 6 minutos. Foram analisadas aberrações estruturais como: quebras e gaps cromossômicos e cromatídicos, fragmentos acêntricos e dicêntricos, double minutes e aumento de satélites. Cada anomalia foi registrada como um evento diferente. As frequências médias foram obtidas para cada tipo de exposição. Para cada doador, 200 células
O setup de exposição foi especialmente desenvolvido para este projeto. Uma TEM Cell (Transverse Electromagnetic Cell) foi utilizada para irradiar amostras em uma incubadora a 37oC (Figura 1A) por 72 horas, que é o tempo preconizado para obtenção de metáfases para análise citogenética. A temperatura foi corrigida pela insuflação de ar, quando necessária, especialmente em níveis altos de SAR. Todos os parâmetros de exposição foram controlados e as condições para obtenção dos níveis desejáveis de SAR foram medidas e estabelecidas anteriormente, em experimentos conduzidos no equipamento robótico Dasy4 (Figura 1B). As culturas foram submetidas a níveis de 0,8; 2,0; 5,0 e 10,0 W/kg, nas tecnologias AMPS e CDMA. Amostras do tipo sham-exposed (nas mesmas condições de transporte e armazenamento, mas sem exposição à radiação) e amostras-controle (controle do paciente, sem as mesmas condições de transporte e armazenamento e sem exposição à radiação) foram incluídas.
cromossômicos, a formação de micronúcleos e a aneuploidia em linfócitos submetidos a campos de RF em um sistema de exposição controlado e altamente monitorado. 1
Materiais e métodos para análise
1.1 Amostra
A.
B. Figura 1 Setup de exposição: (A) Diagrama do sistema de exposição (B) Sistema robótico Dasy 4 utilizado para caracterização das calibrações do sistema
64
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 63-68, jan./jun. 2009
Análise dos efeitos biológicos e genômicos em amostras de sangue submetidas a níveis controlados de radiação emitida por sistemas de telefonia celular
2
controles, 0,8 W/kg AMPS, 10 W/kg AMPS e sham-exposed. As frequências de micronúcleos aumentaram em níveis de SAR de 10 W/kg enquanto os resultados observados com o nível de SAR de 0,8 W/kg – realisticamente próximo ao nível de exposição a que uma pessoa é submetida – foram muito similares à frequência obtida com as amostras do tipo sham-exposed, podendo demonstrar algum efeito técnico e não da radiação propriamente dita. Um efeito dose-dependente foi claramente notado em todos os parâmetros investigados, uma vez que as anomalias tornavam-se mais frequentes de forma proporcional aos valores de SAR a que foram submetidas as amostras. Entre as anomalias citogenéticas mais frequentemente observadas, notaram-se quebras cromatídicas (envolvendo as cromátides dos cromossomos) e outros eventos como deleção de fragmentos e amplificação, assim como cromossomos em anel, conforme Figura 2.
Resultados
Com relação aos resultados obtidos com a técnica FISH (hibridização in situ por fluorescência), foram obtidas frequências máximas para cada caso, dadas pela porcentagem de células alteradas, para um dos genes, para cada uma das classes de amostra, conforme resumido na Tabela 1. Apesar de as frequências máximas obtidas e observadas na Tabela 1 terem se apresentado sensivelmente maiores que os controles, observou-se que os resultados eram confirmados em um número maior de casos apenas acima do limite de 5 W/kg, tendo chegado à totalidade de casos alterados quando as células foram submetidas ao limite de 10 W/kg, conforme Tabela 2. Os resultados obtidos com o teste da frequência de micronúcleos revelou porcentagens de 4,07%, 8,93%, 13,36% e 8,74% respectivamente para:
Tabela 1 Frequências máximas das alterações CDMA
AMPS
Gene
Controle 2 W/kg
5 W/kg
10 W/kg
2 W/kg
5 W/kg
10 W/kg
CMYC
0
1,97 %
2,32 %
3,97 %
4,82 %
4,97 %
1,33 %
HER2
4,13 %
2,54 %
2,86 %
3,81 %
2,57 %
18,87 %
2,00 %
TP53
6,61 %
5,40 %
6,98 %
9,52 %
3,93 %
14,24 %
2,33 %
Tabela 2 Número de casos alterados acima dos resultados dos controles CDMA Gene
AMPS
2 W/kg
5 W/kg
10 W/kg
2 W/kg
5 W/kg
10 W/kg
CMYC
0 de 6
4 de 7
7 de 7
4 de 7
4 de 7
7 de 7
HER2
0 de 6
1 de 7
5 de 7
1 de 7
2 de 7
5 de 7
TP53
0 de 6
2 de 7
5 de 7
1 de 7
4 de 7
7 de 7
A
B
C
D
E
F
G
H
Figura 2 Anomalias cromossômicas: (A) Aumento de satélite, (B/C) Quebras cromossômicas, (D) Gap cromatídico, (E) Deleção, (F) Cromossomo em anel, (G) Fragmento acêntrico, (H) Amplificação
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 63-68, jan./jun. 2009
65
Análise dos efeitos biológicos e genômicos em amostras de sangue submetidas a níveis controlados de radiação emitida por sistemas de telefonia celular
3
Análise e discussão dos resultados
Uma preocupação geral para as pessoas que são submetidas a campos de radiofrequência, especialmente com o aumento drástico do número de usuários da tecnologia celular, é a “conexão” entre radiação e câncer. A instabilidade genômica é largamente encontrada em células tumorais e existe uma evidência forte de que altos níveis de SAR, muito acima dos limites preconizados pelas legislações vigentes, possam ter um efeito genotóxico e induzir dano ao DNA em algum nível. É interessante notar que a aneuploidia e as anomalias cromossômicas têm sido consideradas dois dos eventos mais notórios relacionados aos processos de tumorigênese – iniciação tumoral, uma vez que precede a transformação maligna em muitos tumores. A aneuploidia no câncer e outras anomalias afetam a dosagem gênica e um grande número de proteínas, incluindo aquelas envolvidas no aparato do fuso mitótico, necessário para os processos de divisão celular, fazendo com que essas anomalias tornem-se perpetuáveis (BIALY, 2001). Mesmo detectando anomalias genômicas em células de sangue submetidas a níveis diferentes de SAR, ainda resta identificar se essas células são capazes de escapar para uma via apoptótica, de morte celular programada, para exterminar os clones desbalanceados e preservar a integridade tecidual. Foram observados muito mais eventos relacionados a translocações e cromossomos marcadores do que a fragmentos dicêntricos, acêntricos e cromossomos em anel, estes últimos considerados menos estáveis e com rápido desaparecimento in vivo (JOHNSON et al., 1998; LALIC et al., 2001). Em resposta ao efeito genotóxico da radiação, várias moléculas químicas, metabólitos celulares reativos e checkpoints de controle do ciclo celular podem ser ativados, permitindo que uma célula se autorrepare ou evite a transmissão de cromossomos anormais. O equilíbrio entre os eventos de ciclo celular, reparo de danos e início da morte celular programada são eventos que podem determinar se o dano à célula ou ao DNA é compatível com a sobrevivência da célula ou se requer eliminação por via apoptótica. Defeitos nesses processos podem levar à hipersensibilidade ao estresse celular e susceptibilidade ao dano ao DNA, defeitos genômicos e resistência à apoptose, características marcantes das células tumorais. Quando indivíduos expostos à radiação em um ambiente de trabalho foram avaliados, foi demonstrado que outros fatores podem potencializar os efeitos clastogênicos da radiação como a deprivação de luz, resultando em um distúrbio na secreção de melatonina (CASSONE et al., 1993). Essas observações podem explicar
66
o fato de que nossas amostras do tipo shamexposed demonstraram médias maiores de anomalias quando comparadas às amostrascontrole. É necessário considerar também que fatores epigenéticos e ambientais podem atuar fortemente como potencializadores dos efeitos no DNA. Nossos achados apoiam os resultados de outros grupos, uma vez que foi possível demonstrar um efeito dose-dependente, particularmente com níveis de SAR acima de 5 W/kg (TICE et al., 2002). O sistema de exposição utilizado nesses ensaios foi cuidadosamente proposto para atender às necessidades descritas no Projeto EMF Internacional da Organização Mundial da Saúde. Parâmetros como temperatura, potência e a caracterização da TEM Cell foram estudados em testes de dosimetria, para que resultados confiáveis pudessem ser atingidos em condições isotermais. Nossos resultados demonstram a importância da análise genômica, especialmente através de técnicas de citogenética convencional e molecular e sugerem a utilização da análise citogenética contínua, especialmente para os profissionais submetidos à irradiação ocupacional (LALIC et al., 2001). Conclusão O efeito genotóxico da radiação no DNA das células do sangue somente pôde ser verificado quando estas foram submetidas a limites muito superiores aos preconizados nas legislações e literatura técnica. A análise citogenética de rotina pode ser uma ferramenta importante para o acompanhamento da saúde do trabalhador envolvido em operações com altas doses de RF. Referências BRUSICK, D. et al. Genotoxicity of radiofrequency radiation. Environmental and Molecular Mutagenesis, 1998; 32: 1-16. HUANG, L.; SNYDER, A.R.; MORGAN, W. F. Radiation-induced genomic instability and its implications for radiation carcinogenesis. Oncogene, 2003; 22: 5848-5854. IVASCHUK, O. L. et al. Exposure of nerve growth factor-treated PC12 rat pheochromacytoma cells to a modulated radiofrequency field at 836.55 MHz: effects on c-jun and c-fos expression. Bioelectromagnetics, 1997; 18:223-229. MOULDER, J. E. et al. Cell phones and cancer: what is the evidence for a connection?. Radiation Research, 1999; 151: 513-531. SMITH, L. E. et al. Radiation-induced genomic instability: radiation quality and dose response. Health Phys 2003. 85(1):23-9.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 63-68, jan./jun. 2009
Análise dos efeitos biológicos e genômicos em amostras de sangue submetidas a níveis controlados de radiação emitida por sistemas de telefonia celular
Abstract In this work we have investigated the biological effects in cultured cells exposed to electromagnetic radiation produced by mobile systems with CDMA and AMPS technologies during 72 hours with a SAR ranging from 0.8 to 10 W/kg. Using conventional and molecular cytogenetics (FISH – Fluorescent in situ hybridization) techniques we investigated the genomic instability in cultured blood samples from 10 donors. The samples were exposed to RF fields in a controlled and monitored system. Genomic instability is frequently related to tumorigenesis and in that way we analyzed: the frequency and type of chromosomal abnormalities, micronuclei frequency, aneuploidy and gene status of the TP53, HER-2/neu and C-MYC genes. Our results have shown a dose-dependent effect on those DNA abnormalities and relevant positive results were found only above the regulatory SAR limits. Key words: Non ionizing radiation. Biological effects. Electromagnectics fields.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 63-68, jan./jun. 2009
67
Propriedade intelectual do CPqD Nesta seção, são apresentados os resumos dos pedidos de patentes depositados pelo CPqD no Instituto Nacional da Propriedade Industrial (INPI), no segundo semestre de 2008, e de uma patente concedida pelo INPI.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 69-76, jan./jun. 2009
Propriedade intelectual do CPqD
1
Resumos dos pedidos de patentes depositados no segundo semestre de 2008 (54) MÉTODO E SISTEMA DE GESTÃO INTEGRADA DE FRAUDES E EVENTOS. Dados do pedido: (21) PI 0802704-8 (22) 18/08/2008 (57) "MÉTODO E SISTEMA DE GESTÃO INTEGRADA DE FRAUDES E EVENTOS, que integra informações provenientes de dois tipos de sistemas: Sistemas de Gerenciamento de Eventos de Segurança de Tecnologia da Informação (Segurança de TI) e Sistemas de Gerenciamento de Prevenção e Detecção de Fraude (Fraudes), permitindo a investigação, monitoramento e correlação de transações bancárias dos clientes, realizadas através dos diversos canais eletrônicos de comunicação de uma instituição bancária, com os vários incidentes de sergurança provientes dos seus diversos ativos de TI (Internet Banking, aito-atendimento, cartões de débito e crédito, dentre outros), em tempo real e de forma on-line, oferecendo uma abordagem ampla e flexível no combate a fraudes e no tratamento de incidentes de segurança da informação. Através desta abordagem integrada, a invenção permite o aprimoramento contínuo da assertividade (diminuição da taxa de falso-positivo – alarmes falsos) por meio da aplicação de métodos antifraudes, enriquecendo-os e alimentando-os com informações relevantes sobre eventos de segurança suspeitos provenientes de atividades maliciosas comprovadas através do monitoramento dos acessos aos equipamentos de TI, levando em consideração regras de negócio, perfil comportamental dos clientes, modelos e técnicas científicas". (72) João Eduardo Ferreira Neto / André Blazko / Helen Mary Murphy Peres Teixeira / Claudia Sciortino de Reina.
70
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 69-76, jan./jun. 2009
Propriedade intelectual do CPqD
(54) MÉTODO E SISTEMA PARA EMULAÇÃO DE RESTRIÇÕES NA REPRODUÇÃO DE PROGRAMAS, APLICATIVOS OU SERVIÇOS DE TELEVISÃO DIGITAL INTERATIVA. Dados do pedido: (21) INPI/SP 018080071368 (22) 18/11/2008 (57) "MÉTODO E SISTEMA PARA EMULAÇÃO DE RESTRIÇÕES NA REPRODUÇÃO DE PROGRAMAS, APLICATIVOS OU SERVIÇOS DE TELEVISÃO DIGITAL INTERATIVA que permitem a emulação de restrições e degradações que ocorrem no processo de transmissão e recepção de dados em sistemas reais de televisão digital interativa e no processo de reprodução dos programas de TVDI nos receptores reais. Desse modo, permite executar testes, avaliar os resultados e, se for o caso, detectar e corrigir falhas e incompatibilidades em relação ao resultado esperado no receptor do telespectador, antes mesmo da transmissão do programa de TVDI". (72) Takashi Tome / Nilsa Toyoko Azana.
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 69-76, jan./jun. 2009
71
Propriedade intelectual do CPqD
(54) ESTAÇÃO TERMINAL E TOPOLOGIA DE REDE WIMAX ADHOC-MESH. Dados do pedido: (21) INPI/SP 018080079631 (22) 29/12/2008 (57) "ESTAÇÃO TERMINAL E TOPOLOGIA DE REDE WIMAX ADHOC-MESH, que integram uma rede WiMAX a outras redes, tais como adhoc-mesh ou WiFi, proporcionando uma infra-estrutura flexível e abrangente de telecomunicações sem fio de alto desempenho, com alto grau de capilaridade e auto-configurável, capaz de prover serviços de dados, voz e vídeo/multimídia". (72) Fabrício Lira Figueiredo / Álvaro Augusto Machado de Medeiros / Paulo Henrique Marques Santos / Mônica Domingues de Arruda Cachoni / Rosane Conti / Edson José Bonon / Marcelo de Campos Franco Leal.
72
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 69-76, jan./jun. 2009
Propriedade intelectual do CPqD
(54) MÉTODO E SISTEMA PARA GERAÇÃO EM TEMPO REAL DE MAPAS TEMÁTICOS ADHOC VIA WEB. Dados do pedido: (21) INPI/SP 018080079820 (22) 30/12/2008 (57) "MÉTODO E SISTEMA PARA GERAÇÃO EM TEMPO REAL DE MAPAS TEMÁTICOS ADHOC VIA WEB, que gerencia a criação, armazenamento e manutenção de mapas temáticos ad-hoc via web, em tempo real, dispondo de mecanismos de integração com servidores de mapas, integração com repositórios de dados geográficos e não geográficos, geração de temas sobre expressões algébricas, combinação de elementos e filtros, consultas a metadados, computação de estatísticas, computação de particionamento de dados, simbolização de temas e controle de acesso, dentre outros. Possui uma arquitetura baseada em serviços, com uso de representações intermediárias e emprego de padrões de interoperabilidade, permitindo a integração com vários servidores de mapas e repositórios de dados, tornando o sistema independente dessas tecnologias. A arquitetura asssim concebida, em conjunto com as funcionalidades e mecanismos disponibilizados, provêem uma solução de baixo custo, capaz de criar mapas temáticos na web em tempo de execução, fornecendo ao usuário, capacidades para realização de análises temáticas sobre informações geográficas e não geográficas de forma flexível, aplicando-se a todos as áreas que utilizam sistemas de informações geográficas ou dados geográficos visualizáveis em clientes de mapas". (72) Sandro Danilo Gatti / Lin Tzy Li / Fernando Lindner Ramos / Tiago César Moronte
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 69-76, jan./jun. 2009
73
Propriedade intelectual do CPqD
2
Resumo do pedido de patente concedido em 2008 pelo INPI (54) CIRCUITO PARA EXCITAÇÃO SELETIVA DOS SENSORES INDUTIVOS PARA LEITURA E GRAVAÇÃO DE CARTÕES DE DÉBITO. Dados da concessão: (21) PI 9302569-6 (22) 30/07/1993 (45) 02/01/2008 (51) G11B 5/02 (2007.10), G11B 5/127 (2007.10) (57) "Trata-se de uma disposição de circuito de cabeça leitora na qual fica assegurada a equivalência entre a freqüência do sinal excitador e a ressonância do tanque formado pelo sensor indutivo em paralelo com um capacitador. A invenção utiliza um oscilador (38) controlado por tensão VC0 para geração dos pulsos de sincronismo (54) do gerador (33) de corrente excitadora, sendo a tensão controladora obtida a partir da comparação entre a fase da corrente de excitação e a fase da tensão sobre o tanque formado pelo sensor (11) e capacitador (17) ligados em paralelo. O circuito ainda prevê a limitação da amplitude do sinal excitador através do controle dos pulsos excitadores de corrente aplicados ao sensor indutivo". (72) Antenor Capeli Júnior / Manuel Augusto Miranda dos Santos Pato / Felipe Ricardo Clayton / Narcizo Sabbatini Júnior.
74
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 69-76, jan./jun. 2009
Propriedade intelectual do CPqD
3
Códigos do INPI para Identificação de Dados Bibliográficos (INID) contidos nos documentos de patentes
(11) Número da patente (21) Número do pedido (22) Data do depósito (30) Dados da prioridade unionista (data de depósito, país, número) (45) Data da concessão da patente (51) Classificação internacional (54) Título (57) Resumo (72) Nome do inventor (81) Países designados
Cad. CPqD Tecnologia, Campinas, v. 5, n. 1, p. 69-76, jan./jun. 2009
75
O papel da busca, recuperação e análise de informações de patentes no registro da propriedade intelectual em empresas de base tecnológica Juliano Salmar Nogueira e Taveira, Mariana Savedra Pfitzner, Francisco Henrique Papa Aprovisionamento automático de circuitos ópticos via plano de controle GMPLS em uma rede óptica reconfigurável baseada em ROADMs Júlio César Rodrigues Fernandes Oliveira, Giovanni Curiel dos Santos, Fábio Dassan dos Santos Compressão de fala utilizando quantização vetorial e redes neurais não supervisionadas Flávio Olmos Simões, Mário Uliani Neto, Jeremias Barbosa Machado, Edson José Nagle, Fernando Oscar Runstein, Leandro de Campos Teixeira Gomes Código descrambler-scrambler detector e corretor de erros e seu uso em equipamentos Vectura Victor Alfonso Valenzuela Diaz, Isabela Vasconcelos de Carvalho Motta Análise dos efeitos biológicos e genômicos em amostras de sangue submetidas a níveis controlados de radiação emitida por sistemas de telefonia celular Antônio Marini de Almeida, Cássia de Lourdes Campanho, Raquel Mary Rodrigues, Vanessa Cristina Franco, Bruno Peres dos Santos, Juliana K. R. Heinrich Propriedade Intelectual do CPqD
www.cpqd.com.br Rodovia Campinas-Mogi-Mirim (SP-340) – km 118,5 – CEP 13086-902 Campinas – SP – Brasil
ISSN 1809-1946
Indicadores para a sociedade da informação: medindo as múltiplas barreiras à inclusão digital Esther Menezes, Graziella Cardoso Bonadia, Giovanni Moura de Holanda