CIBERCULTURA E SOFTWARE LIVRE

Page 1

Curso de Pós-Graduação “Lato Sensu” (Especialização) a Distância Administração em Redes Linux

CIBERCULTURA E SOFTWARE LIVRE

4a Edição

Kátia Cilene Amaral Uchôa

Universidade Federal de Lavras – UFLA Fundação de Apoio ao Ensino, Pesquisa e Extensão – FAEPE Lavras – MG


PARCERIA Universidade Federal de Lavras – UFLA Fundação de Apoio ao Ensino, Pesquisa e Extensão – FAEPE REITOR Antônio Nazareno Guimarães Mendes VICE-REITOR Ricardo Pereira Reis DIRETOR DA EDITORA Marco Antônio Rezende Alvarenga PRÓ-REITOR DE PÓS-GRADUAÇÃO Joel Augusto Muniz PRÓ-REITOR ADJUNTO DE PÓS-GRADUAÇÃO “LATO SENSU” Marcelo Silva de Oliveira COORDENADOR DO CURSO Joaquim Quinteiro Uchôa PRESIDENTE DO CONSELHO DELIBERATIVO DA FAEPE Luiz Antônio Lima EDITORAÇÃO Grupo Ginux (http://www.ginux.ufla.br/) IMPRESSÃO Gráfica Universitária/UFLA Ficha Catalográfica preparada pela Divisão de Processos Técnicos da Biblioteca Central da UFLA Uchôa,Kátia Cilene Amaral Cibercultura e Software Livre/ Kátia Cilene Amaral Uchôa. - - 4.ed. Lavras: UFLA/FAEPE, 2008. 151 p. : il. - Curso de Pós-Graduação “Lato Sensu” (Especialização) a Distância: Administração em Redes Linux. Bibliografia. 1. História da Internet. 2. Serviços da Internet. 3. Software Livre. 4. Licenças. 5. Cibercultura. 6. Comunidades Virtuais. 7. Estratégia de Negócio I. Uchôa, K.A. II. Universidade Federal de Lavras. III. Fundação de Apoio ao Ensino, Pesquisa e Extensão. VI. Título. CDD-003.5 -005.43 Nenhuma parte desta publicação pode ser reproduzida, por qualquer meio ou forma, sem a prévia autorização da FAEPE.


Dedicado a minha filha Sofia Amaral Uch么a



SUMÁRIO

1 Introdução

9

2 Aspectos Técnicos e Sociais da Internet

13

2.1 A Sociedade da Informação . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13

2.2 Nascimento e Evolução da Internet . . . . . . . . . . . . . . . . . . . . . . . .

17

2.2.1 Origens e Motivações . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

2.2.2 Internet no Brasil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

2.3 Principais Serviços da Internet . . . . . . . . . . . . . . . . . . . . . . . . . .

28

2.3.1 World Wide Web - WWW . . . . . . . . . . . . . . . . . . . . . . . . .

29

2.3.2 Correio Eletrônico . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

2.3.3 Fóruns e Listas de Discussão . . . . . . . . . . . . . . . . . . . . . . .

36

2.3.4 Comunicação Instantânea e Bate-Papo . . . . . . . . . . . . . . . . .

38

2.3.5 Compartilhamento de Arquivos: FTP e P2P . . . . . . . . . . . . . . .

39

2.3.6 Mecanismos de Busca . . . . . . . . . . . . . . . . . . . . . . . . . . .

42

2.3.7 Comércio Online . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

42

2.3.8 Provedores Gratuitos . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

2.3.9 Web 2.0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44

2.4 Internet e Inclusão Social / Digital . . . . . . . . . . . . . . . . . . . . . . . . .

49

3 Ciberespaço e Cibercultura

57

3.1 Origem e Definição do Ciberespaço . . . . . . . . . . . . . . . . . . . . . . .

57

3.2 A Cibercultura

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

61

3.3 Virtual x Real . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

62

3.4 Hipertexto, Hipermídia e Multimídia . . . . . . . . . . . . . . . . . . . . . . . .

67

3.4.1 Comunidades Virtuais . . . . . . . . . . . . . . . . . . . . . . . . . . .

77

3.4.2 Formação e Funcionamento das Comunidades Virtuais . . . . . . . .

79

3.5 Comentários Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

81

4 Cultura Hacker e Crimes Digitais

83


4.1 Cultura e Ética Hacker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

83

4.2 Privacidade, Leis e Crimes no Ciberespaço . . . . . . . . . . . . . . . . . . .

87

4.3 Comentários Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

91

5 História e Filosofia do Software Livre

93

5.1 Software Livre e Software de Código Aberto . . . . . . . . . . . . . . . . . . .

93

5.2 Evolução Histórica do Software Livre . . . . . . . . . . . . . . . . . . . . . . .

98

5.3 Outras Instituições e Movimentos de Software Livre . . . . . . . . . . . . . . 101 5.4 O GNU/Linux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 5.5 Comunidade Software Livre

. . . . . . . . . . . . . . . . . . . . . . . . . . . 105

5.5.1 Catedral e Bazar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 5.6 Liderança de Projeto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110 5.7 Importância da Possibilidade do Fork . . . . . . . . . . . . . . . . . . . . . . . 112 6 Licenças de Uso em Software Livre

115

6.1 O significado de Copyleft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 6.2 GPL - Licença Pública Geral GNU . . . . . . . . . . . . . . . . . . . . . . . . 116 6.3 Licença Pública Geral Menor do GNU . . . . . . . . . . . . . . . . . . . . . . 119 6.4 Compatibilidade com a Licença GPL . . . . . . . . . . . . . . . . . . . . . . . 119 6.5 Licenças Incompatíveis com a GPL . . . . . . . . . . . . . . . . . . . . . . . . 121 6.6 Patentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 7 Modelos de Negócios com Software Livre

125

7.1 Contexto Ideológico e Negócios com o Software Livre . . . . . . . . . . . . . 125 7.2 Estratégias de Negócio com Software Livre . . . . . . . . . . . . . . . . . . . 127 7.2.1 A Estratégia de Otimização . . . . . . . . . . . . . . . . . . . . . . . . 127 7.2.2 Estratégia de Patrocínio . . . . . . . . . . . . . . . . . . . . . . . . . . 129 7.2.3 Estratégia da Licença Dual . . . . . . . . . . . . . . . . . . . . . . . . 129 7.2.4 Estratégia de Hospedagem . . . . . . . . . . . . . . . . . . . . . . . . 130 7.2.5 Estratégia de Consultoria . . . . . . . . . . . . . . . . . . . . . . . . . 130 7.2.6 Estratégia de Assinatura . . . . . . . . . . . . . . . . . . . . . . . . . . 131 7.2.7 Estratégia Embarcada . . . . . . . . . . . . . . . . . . . . . . . . . . . 131


7.3 Comentários Finais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 A Apêndice: Aplicativos Livres

135

A.1 Facilidade de Uso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 A.2 Suíte de Aplicativos para Escritório . . . . . . . . . . . . . . . . . . . . . . . . 137 A.3 Aplicações para Internet . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 A.4 Jogos e Entretenimento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 A.5 Aplicações Específicas

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143

A.6 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 Referências Bibliográficas

147


LISTA DE FIGURAS

2.1 Navegador Web Firefox . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31

2.2 Navegador Web Mozilla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

32

2.3 Leitor de e-mail Thunderbird em Linux . . . . . . . . . . . . . . . . . . . . . .

34

2.4 X-Chat, cliente IRC para Linux . . . . . . . . . . . . . . . . . . . . . . . . . .

39

2.5 Gaim conectado a um servidor Jabber . . . . . . . . . . . . . . . . . . . . . .

40

2.6 Web 2.0 Meme Map – Fonte: (O’REILLY, 2005) . . . . . . . . . . . . . . . . .

45

5.1 Categorias de Software – Adaptado de (FREE SOFTWARE FOUNDATION, 2002) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

96

6.1 Adoção de Licenças em Projetos da Freshmeat – Fonte: (STATISTICS. . . , 2007) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 A.1 Gerenciador de Ambiente KDE . . . . . . . . . . . . . . . . . . . . . . . . . . 136 A.2 Gerenciador de Ambiente GNOME . . . . . . . . . . . . . . . . . . . . . . . . 137 A.3 OpenOffice.org Writer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138 A.4 Processador de Textos Abiword . . . . . . . . . . . . . . . . . . . . . . . . . . 139 A.5 Gerenciador de Informações Pessoais Evolution . . . . . . . . . . . . . . . . 141 A.6 FreeCiv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 A.7 GIMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144 A.8 Simulador KTechLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145


1 INTRODUÇÃO

O módulo Cibercultura e Software Livre tem por objetivo oferecer uma série de elementos básicos para propiciar a discussão sobre a história, os conceitos, os serviços emergentes na Internet. Busca-se aprofundar o estudo da Internet, como um meio de comunicação, ou seja, sob a ótico de um usuário final, ao mesmo tempo que não fica alheio dessa abordagem aspectos também técnico do administrador de redes. Em âmbito mais geral, esse texto é proposto como um catalizador das discussões a respeito das implicações que esses assuntos emergentes na Internet trouxeram para sociedade, as mudanças de paradigmas, as quais refletem principalmente no profissional de TI (Tecnologia da Informação). O módulo visa ainda fomentar os alunos nas discussões sobre o software livre, do ponto de vista de seus vários aspectos: social, ecomômico e tecnológico, os quais também são de suma importância para a formação do futuro especialista em Administração em Redes Linux. Por fim, essas discussões pretende favorecer a inserção crítica e consciente dos cidadãos na Web e por conseguinte a sua formação cultural nesse espaço. Cibercultura e Software Livre contém ao todo seis capítulos, mais um apêndice, sendo que a leitura deles pode ser feita linearmente em função do índice. Ou então, o leitor pode navegar pelos diferentes capítulos em função de seus interesses, conhecimentos e organizar seu próprio itinerário. É importante destacar que o livro texto não objetiva esgotar os inúmeros assuntos abordados, dada a sua complexidade, cabe ao aluno utilizá-lo como ponto de apoio, para dar início as pesquisas sobre o tema, competindo-lhes também para seu aprofundamento, a produção do conhecimento mediante discussão e elaboração em conjunto com os demais colegas durante a tutoria online. Assim, no Capítulo 2, intitulado Aspectos Técnicos e Sociais da Internet, o leitor encontra a contextualização da sociedade em que emergem os assuntos a serem abordados neste livro e suas principais características, as quais distinguem do modo de produção de uma sociedade industrial. Ele traz um breve histórico do percurso da Internet, desde sua origem até sua fomentação em contexto brasileiro. Além disso, adentra nos principais serviços da Internet destacando suas características, mas focando principalmente os serviços mais relevantes para um usuário comum em seu cotidiano. Não poderia ficar fora deste


10

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

capítulo uma rápida análise das implicações sociais que esta sociedade interligada pelas redes de computadores, inclusive em contexto brasileiro, está sujeita no tocante ao assunto da exclusão digital. O Capítulo 3, Ciberespaço e Cibercultura, aborda o ciberespaço como fenômeno social e principalmente um meio de comunicação em que as informações estão organizadas com novas roupagens, como por exemplo, através de hipertexto, hipermídia ou multimídia, mecanismos esses que permite estabelecer uma comunicação mais dinâmica, interativa de todos-para-todos. Alguns conceitos emergentes são abordados, bem como as suas implicações na sociedade. Inclusive, o texto ainda destaca a formação de comunidades virtuais como novo meio de organização grupal. O Capítulo 4, Cultura Hacker e Crimes Digitais, trata sobre questões relacionadas à cultura hacker e questiona a veracidade desse termo veiculada nos meios de comunicação. Além disso, propõe discutir alguns crimes oriundos no contexto virtual. O Capítulo 5, História e Filosofia do Software Livre, apresenta a história do nascimento e evolução do software livre e código aberto, bem como os principais participantes e líderes dessas comunidades. O Software Livre é discutido não apenas como uma forma diferente de produzir software, ou seja, como algo a ser entendido no âmbito estritamente tecnológico. Antes disso, é abordado como um movimento social nascido de uma reflexão sobre o papel do software de computador e sua importância na vida das pessoas comuns e no diaa-dia das empresas. Além disso, nesse capítulo trata questões de organização de projetos em comunidades de software livre, bem como as lideranças desses projetos. O Capítulo 6, Licenças de Uso em Software Livre, refere as questões que estão no coração do software livre e suas comunidades, como as licenças, as quais determinam se um dado software é aberto, livre ou proprietário. O Capítulo 7, Modelos de Negócios com Software Livre, aborda as relações econômicas que são determinantes para o sucesso ou insucesso de projeto com software livre. As estratégias de negócios com produtos livres, de acordo com (KOENING, 2004) abrem as oportunidades econômicas para a expansão do mercado de Informática dentro de um mundo capitalista e uma economia globalizada. Por fim, o Apêndice A: Aplicativos Livres apresenta alguns aplicativos livres (processamento de textos, edição de imagens, Internet, Jogos, entre outros) voltados para o usuário final, a fim de estimular as pessoas a experimentarem e usarem o software livre no seu dia-a-dia. A autora deste módulo gostaria de agradecer a Samuel Pereira Dias pela escrita do Apêndice A, Joaquim Quinteiro Uchôa pela escrita da Seção 2.2 e a José Monserrat Neto


Introdução

11

pelas correções técnicas. Esta edição foi produzida tomando-se por base versões anteriores deste material didático, especialmente (LOZANO; UCHÔA, 2006) e (UCHÔA, 2003).


12

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre


2 ASPECTOS TÉCNICOS E SOCIAIS DA INTERNET

A Internet precisa ser analisada tanto como fenômeno tecnológico, como social precursora das mudanças presentes na sociedade da informação e globalizada. Compreender suas implicações tecnológicas, sociais e econômicas é base para sedimentar a extensão das implicações do software livre na sociedade contemporânea.

2.1

A SOCIEDADE DA INFORMAÇÃO

Na sociedade contemporânea observa-se contínua evolução das tecnologias da informação e comunicação (TICs), as quais influenciam e provocam mudanças nas formas de produções em todos os domínios da sociedade. Essas tecnologias que começaram por influenciar sobretudo as formas de trabalhar e comunicar nas empresas e na administração, estendem-se, na atualidade, para as mais diversas atividades cotidianas profissionais dos cidadãos nos diversos países do globo. Para Castells (2001), o principal responsável tecnológico causador dessas mudanças é a Internet. A Internet possibilitou à sociedade conectar-se em rede, com isso “as pessoas, as instituições, as empresas e a sociedade em geral, transformam a tecnologia, apropriando-a, modificando-a e experimentando-a – especialmente no caso da Internet, por ser uma tecnologia de comunicação” (CASTELLS, 2003). Ampliando essa idéia, Castells (2001) assinala que na sociedade da informação a comunicação entre os indivíduos torna-se mais ágil, independentemente da localização geográfica, e, a partir desta possibilidade, percebe-se a tendência das pessoas reunirem-se em grupos sociais visando o compartilhamento de informações. Ainda complementando seu argumento, (CASTELLS, 2003) afirma que a Internet “foi uma tecnologia viral, duas pessoas conectaram-se, depois vieram outras e mais outras e logo se formou uma rede mundial”. Com isto cria-se um mundo sem fronteiras, que não


14

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

introduz uma nova maneira de se relacionar, mas sim, cria um novo espaço para relacionamentos sociais, nas organizações e formas de trabalho, nas transações monetárias, na codificação de distintas manifestações culturais, na configuração urbanística das cidades, entre outros. A Internet vem, cada vez mais, tomando parte da vida cotidiana, como um meio de comunicação extremamente poderoso. Observa-se, entretanto, que a Internet possui um poder de ação muito maior que os atuais meios de comunicação de massa. Como comentado por (MELEIS, 1996): A indústria de serviços de informações irá direcionar a saúde econômica no século XXI. A parte de transporte dessa indústria - Redes de Informação - está surgindo como infra-estrutura crítica para o comércio de forma similar aos navios e estradas de ferro no século XIX e automóveis e linhas aéreas no século XX. Redes de Informação irão transportar a mercadoria comercial primária do próximo século informação digitalizada - e instrumentos de informação irão colocá-la na ponta de seus dedos.

Dado esse contexto, é praticamente consenso entre pesquisadores de diversas áreas a afirmação que as novas tecnologias, como o computador e a Internet, propiciam modificações nos contextos políticos, sociais e econômicos e mesmo culturais, como apontado em: (SCHAFF, 1992), (LÉVY, 1995) ou (CASTELLS, 2001). Lévy, em (LÉVY, 1995) afirma que grande parte dessas modificações influenciam a natureza do conhecimento e irão dar à sociedade a possibilidade de chegar a uma tecnodemocracia, isto é, um tipo de sociedade em que os meios técnicos auxiliarão o exercício de uma sociedade mais democrática. Por sua vez, Roberto Aparici problematiza essa visão otimista, salientando que a importância dada às novas tecnologias no mundo atual está associada ao mito que elas são produtoras de bem-estar em todo o planeta (APARICI, 1998). Em contrapartida, as pessoas tendem a camuflar que essas novas tecnologias estão aguçando, cada vez mais, as desigualdades sociais e a concentração de riqueza. Inclusive, a desigualdade no acesso ao desenvolvimento tecnológico pode ser verificada na comparação entre as oportunidades tecnológicas no primeiro e no terceiro mundo. Aparici argumenta ainda que, atualmente, não basta que as pessoas tenham alguns conhecimentos tecnológicos para estarem inseridas na dinâmica social e econômica da sociedade da informação. É preciso fazer parte desta sociedade como produtores criativos dessas tecnologias, trabalhando mais no setor dos serviços e da informação e menos nas tarefas ligadas à agricultura e à indústria. Argumentando essa afirmativa, Aparici diz que mais da metade dos cidadãos americanos estão dedicando-se às tarefas vinculadas à informação, enquanto a maior parte da população latina-americana dedica-se à agricultura, em detrimento das tarefas ligadas a informação.


Aspectos Técnicos e Sociais da Internet

15

Ainda seguindo a visão menos otimista, o autor Dominique Wolton pondera algumas críticas às novas tecnologias. Como apontado em Wolton (WOLTON, 2000), a impregnação da Internet na sociedade, como símbolo mais significativo das novas tecnologias, não ocorre da mesma maneira que com as outras tecnologias, para modifica a sociedade. Continuando, o autor afirma que a ideologia técnica, que se faz presente na sociedade européia, reduz o ato de comunicar a tecnologia e constrói uma falsa hierarquia entre novos e antigos meios de comunicação social, sendo necessário evitar esse tipo de hierarquização. Ainda (WOLTON, 2000), assegura que a comunicação mediada pelas novas tecnologias não substituirá a comunicação humana e que se a Internet for tomada como símbolo das novas tecnologias, é de se saber se esta inovação provoca ou não uma (re)evolução importante nos modelos culturais e sociais da comunicação. Se modelos sociais, culturais e inovações técnicas possuirem relações significativas, mesmo que com ritmos diferenciados, isso induz a afirmativa que a Internet inaugurará um terceiro capítulo na história da comunicação do planeta. Do contrário, não existindo qualquer relação significativa entre os três modelos, isto induz a assertiva de que as novas tecnologias não chegarão a ser o símbolo de uma nova revolução geral da comunicação e, bem como, a Internet não constituirá símbolo de uma nova sociedade. A diferença entre essas duas posições é grande e está relacionada à visão de que as novas tecnologias de comunicação constitui uma inovação técnica, mas as ponderações devem levar em conta que a comunicação não depende somente de técnica, mas das dimensões sociais e culturais. Por fim, na compreensão de Wolton, as novas tecnologias não são as condições ou vanguardas da comunicação do amanhã. Ele argumenta que se no futuro rupturas sociais e culturais criarem um novo significado para as novas tecnologias, há probabilidade de que estas não sejam apenas no sentido técnico, o qual atualmente toma lugar nas reflexões do tema da “sociedade da informação” ou “sociedade em rede”. No contexto das discussões otimistas e pessimistas da presença das novas tecnologias na sociedade, observa-se na prática a existência de implicações sociais menos positivas. Logicamente, o usufruto dos benefícios relevantes da “sociedade da informação” pressupõe não somente estar conectado individualmente à Internet, o que se relaciona a custos dos equipamentos e de ligação à rede digital, mas principalmente ter condições mínimas para manusear e compreender essas novas tecnologias. Dessa forma, levando em conta que no Brasil a maior parte da população não possui acesso e conhecimento amplo das tecnologias digitais, ao contrário essa realidade está mesmo distante, projetos que possam amenizar este distanciamento passam a ser cada vez mais necessários. Assim, atualmente em contexto brasileiro surgem inúmeros programas de inclusão digital, em paralelo com a


16

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

preocupação crescente de incluir no currículo das escolas o estudo e uso dessas tecnologias visando a alfabetização digital em estabelecimentos escolares1 . Analisando a complexidade do verdadeiro impacto da Internet e das tecnologias digitais, parece indiscutível que essas tecnologias tem implicações sociais de diversas naturezas em todas as áreas de atuação do homem. Por isto, a profunda evolução tecnológica presente no século XX tem sido caracterizada como: a “sociedade da informação”, ou “sociedade do conhecimento”, conforme (CASTELLS, 2001) (SCHAFF, 1992). Nessa sociedade, a base de produção é a informação e o conhecimento, enquanto que na sociedade industrial o capital é o motor do modo de produção e a principal fonte de poder. Nesse contexto de mudanças, os responsáveis pelos governos de vários países vem tomando medidas que melhor aproxime sua nação da sociedade da informação. Por exemplo, em solo português, a abordagem governamental da sociedade da informação data de meados da década de 90, a partir de então foi estabelecida a criação do Livro Verde para a Sociedade da Informação (Missão para a Sociedade da Informação, 1997). Dentre os objetivos desse governo encontram-se: a realização de dezenas de projetos em áreas das mais diversas que passa pela massificação do Acesso em Banda Larga, melhoria do serviço do Estado aos Cidadãos e Empresas por meio do Governo Eletrônico, desenvolvimento de competências e culturas digitais, entre outros. No contexto brasileiro, a iniciativa de criação do Livro Verde deu-se nos anos 1998 e 1999, sendo marcada pela euforia dos agentes sociais com atuação relacionada à Internet comercial brasileira. A Internet começava a atrair os investidores que suspeitavam que nela poderia ser gerado dinheiro, através de criação das denominadas empresas.com. Podese dizer que essa atmosfera de euforia mostrava que estava comercialmente surgindo um novo segmento econômico incentivado por investidores globais, expressa principalmente pelos índices de Nasdaq, a chamada “bolsa das empresas de alta tecnologia”. O Livro Verde foi publicado e lançado em setembro de 2000. É interessante observar que em época próxima do lançamento desse documento, a chamada “Bolha de Nasdaq havia estourado”, com as quedas em seu índice, as empresas com atividades ligadas a Internet e que trabalhavam com preços “super-estimados” na bolsa Nasdaq perdiam seu valor. Com a queda de Nasdaq, o dinheiro havia sumido e a euforia terminado em tempo global com relação as empresas.com. O Livro Verde não trata da criação de uma sociedade da informação no Brasil, mas sim recodifica a sociedade brasileira no sentido de uma sociedade da informação. Essa sociedade tem como características marcante a explosão da quantidade de informações disponíveis, pelo potencial efeito e uso dessas informações disponíveis na geopolítica glo1O

tema da inclusão social e digital será abordado com mais detalhes na Seção 2.4 deste capítulo.


Aspectos Técnicos e Sociais da Internet

17

bal, pela presença de maior produtividade em menos tempo e pelos efeitos da globalização. No entando, essas características continuam a serem as peculiaridades que o Livro Verde buscava adequar o país brasileiro para melhor participação nesta sociedade da informação. Nesse contexto de ações para a sociedade da informação torna-se importante comentar dois documentos do Governo Federal:

Guia Livre – Referência de Migração para Software Livre do Governo Federal: Este documento tem como objetivo prioritário formular orientação para a migração para software livre de órgãos integrantes da Administração Pública Federal, em consonância com diretrizes dos comitês técnicos. (MIN. PLANEJAMENTO, 2004) e-Ping Padrões de Interoperabilidade de Governo Eletrônico : Uma arquitetura que define um conjunto mínimo de premissas, políticas e especificações técnicas que regulamentam a utilização de TIC no Governo Federal, estabelecendo as condições de interação com os demais poderes e esferas de governo e com a sociedade em geral. (MIN. PLANEJAMENTO, 2006)

2.2

NASCIMENTO E EVOLUÇÃO DA INTERNET Por Joaquim Quinteiro Uchôa

Nos últimos dez anos, vem sendo veiculado na mídia impressa e televisiva o aumento de notícias sobre a Internet, com especial destaque para fatos envolvendo sites de relacionamentos ou de forte interação com o usuário. A Internet está cada vez mais tornando um espaço de trocas de informações, experiências e conhecimentos entre seus participantes, sendo que ela atualmente possibilita um nível de interação nunca antes experienciado em outros meios de comunicação. Com isto, é importante destacar que a Internet é atualmente muito mais um meio de comunicação que um conjunto de protocolos de Redes de Computadores ou a simples interligação física entre computadores. Por outro lado, alguns dos recentes fenômenos de sucesso da Internet, como a Wikipesão cada vez mais comparados ao Linux ou ao software livre, pela forma de desenvolvimento colaborativo. Dessa maneira, este texto tem o objetivo de fazer um breve histórico da Internet, destacando os elementos de sua evolução que mais fortemente tangenciam a evolução do software livre. dia2 ,

2 Wikipedia:

http://www.wikipedia.org.


18

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

2.2.1

Origens e Motivações

Sob um ponto de vista técnico, a Internet é a maior rede de computadores existente na atualidade, sendo o resultado da interconexão de milhares de redes eletrônicas, criando um meio de comunicação global (REDE NACIONAL DE PESQUISA, 1996). Cada uma dessas redes possui estrutura e objetivos próprios, bem como utilizam-se de tecnologias diferenciadas. A interconexão entre elas é garantida pelo uso de uma linguagem comum, os protocolos de comunicação, que irão permitir a comunicação entre equipamentos com diferentes plataformas de hardware e software. Existe uma versão corrente do nascimento da Internet que apregoa uma origem militar para a mesma, com o nome de ARPANET, em 1969. A teoria vai além, sugerindo que a sua criação foi motivada para que redes militares pudessem operar, inclusive, em caso de ataque nuclear. Esse exemplo de teoria pode ser verificado no verbete da versão portuguesa da Wikipedia3 . Entretanto, como apontado por (PETER, 2004), a Internet não surgiu no Pentágono, não surgiu na ARPANET, e muito menos foi criada com objetivos militares; sendo, inclusive, que a teoria de ataque nuclear não fez parte do design da Internet. A visão da Internet surgida com fins militares advém de relações com seu contexto de criação. No início da década de 50, a Força Aérea dos Estados Unidos, deu início a um projeto ambicioso, denominado SAGE (Semi-Automatic Ground Environment), como uma resposta à repercussão da explosão da primeira bomba de hidrogênio soviética em 1953 (MARCELO, 2006). Esse sistema consistia de vinte e três centros de processamento de dados, com dois computadores de grande parte em cada, operando de forma distribuída, interligados entre si por linhas telefônicas. Quando o SAGE ficou totalmente pronto, em 1961, ele já era inútil contra as novas ameaças, mísseis balísticos intercontinentais, mas trouxe uma série de inovações, entre elas o uso do MODEM, monitores de vídeo interativos e metodologias de Engenharia de Software. Essa experiência, obviamente foi extendida para outros projetos. Por volta dessa época, o mundo assistia a uma liderança isolada dos soviéticos na corrida espacial. Essa liderança ficou visível com o lançamento do Sputnik I, primeiro satélite artificial e o primeiro objeto fabricado pelo homem a orbitar da Terra. Como resposta ao lançamento do Sputnik, o Departamento de Defesa dos Estados Unidos criaram a ARPA (Advanced Research Projects Agency) em 1957, uma agência de pesquisas com o objetivo de reestabelecer os EUA na vanguarda da ciência e tecnologia4 . Essa agência tinha a missão de prevenir surpresas tecnológicas, como o Sputnik, com pes3 Verbete:

http://pt.wikipedia.org/wiki/Internet, vizualizado em 17 de abril de 2007. apontado em uma página no site da DARPA (http://www.darpa.mil/body/arpa_darpa. html), a ARPA teve seu nome modificado para DARPA (Defense Advanced Research Projects Agency) em 4 Como


Aspectos Técnicos e Sociais da Internet

19

quisas de alto risco, seja casos de tecnologias em estágios iniciais ou além dos objetivos dos departamentos militares. A ARPA quase foi desfeita no ano seguinte, quando seu programa de satélite passou para a recêm-criada NASA (National Aeronautics and Space Administration). Ela só sobreviveu porque mudou o foco de suas pesquisas básicas de longo prazo, com a participação das universidades, até então fora dos planos do Departamento de Defesa. Como apontado em (MARCELO, 2006), essa reinvenção tornou a ARPA uma agência de elite, respeitada cientificamente. Além disso, sua nova direção promoveu uma descentralização do gerenciamento, valorizando mérito científico e técnico acima de objetivos militares. Houve um desmembramento da ARPA em pequenas unidades, para identicar novas áreas de pesquisas de longo prazo, sendo que uma dessas áreas foi a de Comando, Comunicação, Controle e Inteligência. Em 1962, foi contratado para um de seus escritórios, o IPTO (Information Processing Techniques Office), o psicólogo experimental Joseph Licklider, que trabalhou anteriormente no SAGE e na BBN, uma empresa formada por exprofessores e alunos do MIT. Licklider tinha à época grande contato com pesquisas sobre computadores e havia desenvolvido toda uma visão a respeito da simbiose homem-máquina. Nessa visão a interação entre homens e computadores ocorria não apenas para comandar e controlar, mas também para interligar várias técnicas de computação eletrônica, que estavam separadas na época. Entre as pesquisas que passaram a ser desenvolvidas sob seu comando, encontravam-se as sobre novas interfaces homem-computador e sistemas de tempo compartilhado (time sharing systems), uma forma de compartilhar os recursos de um computador entre vários usuários. Licklider, após tomar posse na ARPA, deu início a uma série de memorandos denominados “On-Line Man Computer Communication” (Comunicação Online entre Homens e Computadores) (LICKLIDER, 1962). Nesses memorandos, ele discutia a idéia de uma rede galática, um conjunto global de computadores interconectados, através dos quais qualquer um poderia facilmente acessar dados e programas de qualquer local. Como apontado em (LEINER et al., 1997) e (LEINER et al., 2006), os conceitos de rede galáctica de Licklider estavam muito próximos, em essência, à Internet atual. Apesar disso, Licklider deixou a ARPA em 1964, sem iniciar o projeto dessa rede. Seu substituto, Robert Taylor, começou a arquitetar um projeto em 1966 para interligar os diferentes computadores das instituições de pesquisas financiadas pela ARPA, objetivando otimizar o uso desses caros recursos computacionais e desenvolver conhecimento 1972, voltando a chamar ARPA em 1993. A partir de 1996, o nome voltou a ser DARPA mais uma vez, o qual persiste até hoje.


20

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

de técnicas de comunicação de dados através de redes de computadores. Como apontado em (MARCELO, 2006), esse foi o ponto de partida para a ARPANET, a rede de computadores da ARPA, sem que, na época, soubesse como implantar direito uma rede com essa complexidade e com um histórico de vários projetos de redes da ARPA falhos na intercomunicação de máquinas diferentes. É importante ressaltar, portanto, que a ARPANET em si foi criada para compartilhamento de recursos entre instituições de pesquisa, via time sharing. A idéia era que uma instituição pudesse utilizar poder computacional de outras instituições, quando fosse necessário efetuar cálculos mais complexos. Isso, como bem destacado em (PETER, 2004), não só não tinha objetivos militares, como não pode ser considerada a origem da Internet. Apesar disso, é óbvia a importância da ARPANET para a Internet em si, tanto por seus sucessos na interligação de computadores de diferentes arquiteturas, como por duas de suas importantes contribuições: o protocolo TCP/IP e o sucesso no uso de comutação de pacotes (packet switching). A comutação de pacotes é uma técnica de comunicação em redes, em que pacotes (unidades de informação) são roteados entre links de dados compartilhados, havendo o compartilhamento do canal por vários usuários. Esse tipo de transporte contrasta com comutação de circuitos (circuit switching), que estabelece uma conexão dedicada entre dois nós da rede, para uso exclusivo durante o tempo da comunicação. Um exemplo familiar de rede utilizando comunicação por comutação de circuitos mais comum é a rede telefônica: quando é feita uma conexão entre dois usuários, é estabelecido um circuito entre os dois aparelhos telefônicos. O exemplo mais comum de rede por comutação de pacotes é, obviamente, a Internet, em que um pacote de dados é roteado, dá origem ao destino, entre diversos pontos da rede. A técnica de comutação de pacotes permite, entre outros, que o caminho de dados entre dois nós da rede seja alterado a qualquer momento, o que propicia uma maior robustez na comunicação. Apesar das vantagens aparentes desse tipo de técnica nos dias atuais, não havia qualquer consenso na década de 60 sobre o seu uso, e vários pesquisadores duvidavam das reais possibilidades de sucesso com seu uso. O que garantiu o seu uso foi a grande variedade de resultados em experiências, utilizando diversas formas de implantação. Os conceitos básicos dessa técnica foram originados de forma independente e simultânea nos EUA e na Inglaterra, sendo que o primeiro artigo sobre a teoria de comutação de pacotes foi publicado em julho de 1961, por Leonard Kleinrock. Nos EUA, a Força Aérea havia encomendado à RAND Corporation, um projeto de comunicação mínima essencial, permitindo, em caso de ataque inimigo, alguma forma de disparar uma operação de contra-ataque. Paul Baran, principal engenheiro da RAND, propôs o uso de redes de comunicação distribuídas (não-centralizadas) (BARAN, 1964), com flexi-


Aspectos Técnicos e Sociais da Internet

21

bilidade de comutação de pequenos blocos de mensagens5 . De certa maneira, talvez seja esse fato a motivação para uma visão “militarista” do surgimento da Internet. Ainda mais que a ARPANET foi construída com consultoria do próprio BARAN, sendo apresentada como um exemplo de rede recomendada pela RAND. Como comentado em (MARCELO, 2006), os pontos da rede operariam o Hot Potato Routing (roteamento da batata quente), ou seja: assim que um nó recebesse um pacote, deveria determinar a melhor rota ao destino e encaminhar o pacote ao próximo nó do caminho. A RAND, por fim, enviou um relatório à Força Aérea que solicitasse à empresa de telefonia na época (AT&T) a construção dessa rede, uma vez que ela apenas fazia pesquisas e não projetos. A AT&T respondeu na época que essa rede não funcionaria, e que não iria construi-la para incompatibilizar e competir consigo mesma. Assim, como também destacado em (MARCELO, 2006), “A maior ameaça às novas redes de comunicações não estava na União Soviética, mas no monopólio da companhia telefônica norte-americana”. Em 1965, a RAND emitiu um parecer formal recomendando que a Força Aérea atuasse sem a ajuda da AT&T. Estava tudo caminhando para isso, quando foi criada uma nova agência, a DCA (Defense Communications Agency) para gerenciar todos os sistemas de comunicação militares, constituída por uma equipe focada em tecnologias analógicas. Com isso, Baran percebeu que, se o projeto fosse colocado em prática, não iria funcionar e criaria problemas com a técnica proposta. Ele preferiu acionar seus contatos para “congelar” o projeto até um momento mais propício (BARAN, 1999). Na Inglaterra, por sua vez, havia também uma preocupação com o atraso científico e tecnológico. Em 1964, o governo assumiu o controle de um projeto que visava levar à indústria de informática inovações surgidas nas universidades. Donald Davies assumiu o comando desse projeto, o ACTP (Advanced Computer Techniques Project) e priorizou pesquisas em interface homem-computador e sistemas de tempo compartilhado (MARCELO, 2006). As pesquisas esbarraram também no sistema de comunicação vigente, projetado para uso de comutação de circuitos analógicos para tráfego de voz. Davies, assim como Baran, possuia formação em Computação, e propôs a divisão das mensagens em pedaços de tamanhos fixos, que denominou de pacotes, termo que prevalece até hoje. Davies propôs a implantação de uma nova rede, mas apesar de alinhado ao discurso de modernização tecnológica do governo, a burocracia e o desinteresse não levaram o projeto adiante. Como apontado em (MARCELO, 2006), foi construída apenas uma rede experimental, a Mark I, que funcionou de 1967 a 1973. Em 1973, essa rede foi substituída pela Mark II, que ficou em operação até 1986. 5 Esses

blocos no futuro receberam o nome de pacotes.


22

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Apesar de ter deixado a ARPA sem implementar seu projeto de rede, Licklider influenciou vários pesquisadores sobre a importância de seus conceitos de rede, entre eles Robert Taylor e Lawrence Roberts (LEINER et al., 1997). Assim, sob a liderança de Robert Taylor, o IPTO seguia firme na decisão de interligar os computadores das instituições financiadas. Taylor contratou Lawrence Roberts, que fez uma apresentação do projeto da ARPANET em um simpósio sobre Sistemas Operacionais em 1967, promovido pela ACM (Association for Computing Machinery). Nesse simpósio, Roberts pôde entrar em contato com Donald Davies, ficando a par do funcionamento das redes por comutação de pacotes estudadas pelos britânicos, bem como as pesquisas na área pela RAND. Isso convenceu Roberts das vantagens do uso de redes de pacotes para a ARPANET, que contou com a consultoria do próprio Baran (MARCELO, 2006). Obviamente, a implantação da ARPANET tinha vários desafios a enfrentar: • críticas da poderosa DCA, por causa do uso de rede de pacotes; • oposição de algumas instituições que não queriam compartilhar seus preciosos computadores e que viam no projeto a possibilidade de redução do orçamento futuro; • grande variedade de computadores que tinham que ser interconectados. A ARPA teve autonomia e força para passar pelas objeções. Como forma de conectar computadores incompatíveis entre si, a ARPA utilizou a estratégia de implantar uma arquitetura que permitisse dividir as tarefas de conectividade em camadas. Essas camadas estavam dispostas em uma hierarquia conceitual, indo do nível concreto (sinais elétricos) ao abstrato (aplicações dos usuários), em uma forma semelhante às estruturas atuais de redes de computadores. Ao adotar essa estratégia, a ARPA tornou mais gerenciável a complexidade do sistema e permitiu que o desenvolvimento da rede pudesse ocorrer de forma descentralizada. Obviamente, os projetistas da ARPANET não tinham idéia de como separar as funções da rede em camadas, muito menos como as interfaces e protocolos de comunicação iriam funcionar (MARCELO, 2006). Uma das preocupações críticas àquela época era sobre como fazer o roteamento de pacotes em cada um dos diferentes sistemas operacionais que eram utilizados nas instituições. A alternativa foi a de utilizar minicomputadores como nós intermediários, denominados de IMP (Interface Message Processors), precursores dos atuais roteadores. Cada IMP estava conectado a um único host, mas os vários outros IMPs, através de linhas telefônicas. Dessa forma, a ARPANET começou com duas camadas conceituais. Outra estratégia que propiciou o desenvolvimento da ARPANET foi o estilo de gerenciamento do projeto, muito próximo do estilo universitário, com vários elementos descentralizados e informais. Por exemplo, o grupo que desenvolveu o NCP Network Control Protocol,


Aspectos Técnicos e Sociais da Internet

23

protocolo de comunicações da ARPANET, era formado por alunos de graduação. Os trabalhos desses alunos foram inicialmente organizados por um deles, Stephen Crocker, em documentos denominados RFCs (Request For Comments (solicitação de comentários). As RFCs inicialmente eram impressas e distribuídas aos membros do grupo via correio tradicional. Elas criaram uma cultura de colaboração e interação para o desenvolvimento de idéias relacionadas à rede que são, até hoje, os documentos de registro principal para os padrões da Internet, mantendo o mesmo espírito de 40 anos atrás. De certa maneira, elas prenunciaram, numa escala restrita e especializada, o sucesso de colaboração em rede, caso do software livre e, mais recentemente, da Wikipedia. Em setembro de 1969, foi instalado o primeiro IMP da ARPANET, na UCLA (University of California at Los Angeles), onde trabalhava Kleinrocks. Os trabalhos iniciais dele em comutação de pacotes propociaram a escolha dessa instituição para ser o primeiro nó da rede, bem como o responsável pelo seu gerenciamento. Antes do final desse mês, quatro nós estavam interconectados, utilizando linhas telefônicas da AT&T: a UCLA, a UCSB (University of California at Santa Barbara), a UU (University of Utah) e o SRI (Stanford Research Institute). A BBN foi a empresa escolhida para implementar os IMPs, com projeto tendo por gerência Robert Kahn. Em 1972, um funcionário da BBN, Ray Tomlinson, escreveu um programa para enviar e receber mensagens eletrônicas (eletronic mail, ou e-mail), com o objetivo de coordenar as atividades dos técnicos e cientistas da ARPANET. O e-mail tornou a partir daí a aplicação mais utilizada na Internet, contrariando totalmente a visão de que a ARPANET seria utilizada principalmente para o compartilhamento de recursos computacionais, via time sharing. A aplicação inicial de Ray Tomlinson foi extendida pouco depois para que pudesse listar, selecionar, arquivar e responder mensagens, o que mostra o espírito de compartilhamento e colaboração na computação em seus dias iniciais. Em outubro de 1972, o IPTO organizou uma grande e bem sucedida demonstração da ARPANET, o que serviu para convencer até os mais céticos sobre as vantagens das redes por comutação de pacotes. A partir daí houve todo um interesse crescente na ARPANET, com a visão de uma rede formada por múltiplas redes independentes. Dessa maneira, a ARPANET seria uma rede ligando outras redes (uma “inter-net”), em que cada rede poderia ser modelada para atender às necessidades específicas do ambiente e seus usuários. Como apontado em (LEINER et al., 1997), a idéia de uma arquitetura aberta, introduzida por Kahn, foi guiada por quatro regras críticas:

1. Cada rede deveria funcionar por si só e não deveria precisar de alterações internas para ser conectada à ARPANET.


24

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

2. Comunicação deveria ser feita na base do melhor esforço: se um pacote não chegasse ao destino, ele deveria ser retransmitido rapidamente da origem. 3. Caixas pretas (depois chamados de roteadores ou gateways) deveriam ser utilizadas para conectar as redes. 4. Não deveria haver controle global no nível de operação da rede.

A expansão da ARPANET trouxe novos problemas, entre eles a dificuldade de uso do NCP em outros tipos de meio (redes por rádio ou satélite). Foram criadas redes nesse formato, mas todas incompatíveis entre si. Para interconectar essas redes heterogêneas foi criado o Projeto Internet, donde surgiu o nome atual da rede, com a participação de Vinton Cerf, que trabalhou no desenvolvimento e projeto do NCP e Kahn. Em 1974, é publicado um trabalho dos dois com a proposta de um protocolo para a intercomunicação de redes de pacotes, o TCP (CERF; KAHN, 1974). Interessante observar que inicialmente o TCP foi enxergado como um programa para controlar a transmissão e aceitação de mensagens, sendo inicialmente denominado Transfer Control Program. Como apontado em (LEINER et al., 1997), o TCP mostrou-se adequado para circuitos virtuais, incluindo aplicações de transferência de arquivos e logins remotos, mas não para aplicações avançadas de rede, como transmissão de voz em pacotes. O TCP foi reorganizado em dois protocolos: 1) o IP (Internet Protocol), que providenciava endereçamento e encaminhamento dos pacotes; 2) o TCP (Transfer Control Protocol), responsável pelo controle de fluxo e recuperação de pacotes perdidos. Para aplicações que não precisavam do TCP, foi criada uma alternativa, o UDP (User Datagram Protocol), que possibilitava acesso direto ao IP. O TCP/IP foi implementado inicialmente pela empresa BBN, em sistemas de grande porte. Quando surgiram os desktops, pensou-se inicialmente que o TCP/IP seria muito grande e complexo para poder ser executado em computadores pessoais. Entretanto, David Clark e sua equipe no MIT produziram uma implementação para as estações Xerox Alto e para o IBM PC, provando que estações de trabalho também poderiam fazer parte da Internet. Por fim, a ARPA encomendou à UCB (University of California at Berkeley) a implementação do TCP/IP no BSD Unix (LEINER et al., 1997). Essa implementação foi um elemento chave para a adoção em larga escala da Internet. O sucesso da ARPANET fomentou o surgimento de várias outras redes, em geral cada uma com sua própria filosofia, protocolos e aplicações. Isso exigia um grande esforço para a implementação dos (gateways), aplicações ou dispositivos para interligar redes distintas. Em 1983, entretanto, a transição da ARPANET para o TCP/IP foi finalizada, tendo corrido tudo bem, apesar dos receios iniciais. Além disso, propositalmente a ARPANET deixou de


Aspectos Técnicos e Sociais da Internet

25

rodar aplicativos suportando outros tipos de rede, inclusive NCP, o que forçou a migração de todas as redes para adoção do TCP/IP. Dessa maneira, por volta de 1985, a Internet estava estabelecida como uma tecnologia, suportando uma grande comunidade de desenvolvedores e pesquisadores e começando a ser utilizada por outras comunidades. A ARPANET havia tornado o backbone de interligação entre as várias redes acadêmicas. O crescimento da Internet fomentou mudanças tecnológicas e administrativas, entre elas a divisão dos endereços IPs em classes e do CIDR (Classless Interdomain Routing). Para dar conta desse roteamento, cada vez mais mutável, as tabelas de roteamento deram origem a protocolos dinâmicos de roteamento, como o IGP (Interior Gateway Protocol) e EGP (Exterior Gateway Protocol). Na década de 80 também foi criado o DNS, por Paul Mockapetris, para substituir a tabela fixa de nomes dos hosts, permitindo uma arquitetura escalável e hierárquica para a denominação de pontos da rede. Em 1984, outro fato importante foi a separação da ARPANET da rede militar dos EUA, chamada MILNET, evento que teve suas motivações iniciais na década anterior, quando a ARPA foi chamada a se focar em projetos militares. Em 1985, a NFS (National Science Foundation) iniciou o programa de criação da NSFNET, com o objetivo de oferecer infraestrutura de rede à toda comunidade acadêmica. A NSF patrocinou a criação de um novo backbone, passando de 6 nós com velocidade de 56Kbs para 21 nós de 45Mbs. Houve, portanto, uma explosão da rede, e a ARPANET foi desativada em 1990, após duas décadas e meia de contribuição à comunidade acadêmica. Quando assumiu o controle da NFSNET, em 1986, Stephen Wolff reconheceu a necessidade de desenvolver uma estratégia para garantir uma infraestrutura de rede que suportasse a comunidade acadêmica e de pesquisa, ao mesmo tempo que ficasse independente do financiamento do governo. A principal estratégia adotada foi a de encorajar os escritórios regionais da NFSNET para procurar consumidores comerciais. Entretanto, ela proibia o uso de seu backbone para uso não acadêmico. Isso encorajou o tráfego de rede local em nível regional e fomentou a criação de redes particulares de longa distância. Em 1995, o backbone da NFSNET deixou de receber fundos do governo, uma vez que os backbones privados eram muito melhores. Nessa época Al Gore já havia criado uma metáfora significativa para a Internet: Information Superhighway (Autopista da Informação), havendo toda uma “febre” de corrida para a Internet. Essa corrida foi motivada pela Web, uma tecnologia surgida na Europa, mais especialmente no CERN (Centre European pour la Recherche Nucleaire), maior centro de pesquisa à época. Em 1989, Tim Berners-Lee, um dos pesquisadores desse centro, propôs uma arquitetura para a Web, bem como o protocolo HTTP. Em 1992, surge o primeiro navegador


26

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

gráfico conhecido do público, o Mosaic para o ambiente X do UNIX, desenvolvido por Marc Andersen, futuro fundador da Netscape. O primeiro navegador gráfico havia sido criado pelo próprio Tim, mas funcionava apenas em computadores NEXT, poucos difundidos na época. A partir da Web a Internet difunde-se juntamente com o hipertexto6 e um uso cada vez maior de recursos multimídias, fazendo-se presente em todos os pontos do globo. Deve ser observado, entretanto, que o conceito de hipertexto é anterior ao nascimento da Internet e será discutido em capítulo posterior nesta apostila. Conforme (LEE, 1996), o princípio básico da arquitetura Web consiste em poucas restrições para o seu formato de funcionamento na rede. Assim, no início de criação da Web, a proposta foi a de criar poucos protocolos para deixar a rede o mais flexível possível e manter compatibilidade entre os padrões. Assim, o antigo protocolo FTP poderia ser utilizado junto com o novo protocolo HTTP no espaço de endereçamento. Além disso, os documentos de textos convencionais poderiam ser mixados com novos documentos em hipertexto. Essa compatibilidade permitiu que a Web se tornasse um espaço de compartilhamento de informações, através do qual as pessoas poderiam se comunicar. A função maior da Web, portanto, consiste em incluir informação pública e privada. Nesse espaço, o hipertexto, objetiva ligar idéias e pensamentos que se relacionam com o contexto original dos documentos armazenados em sistemas de armazenamento de informações. Na Web, não existe um sistema fechado de banco de dados para links7 - por isso é possível fazer referências hipertextuais a vários documentos permitindo o grande crescimento de informações referenciadas em formas de links. Essa arquitetura assim estabelecida, dá liberdade às pessoas para que façam referências sem precisar consultar os destinatários, permitindo a amplitude de escalabilidade que a Web tem atingido atualmente. O impacto da Web foi tão significativo que em 2000 explode a famosa bolha das dotcom. A partir de 1995, ocorreu um frenesi de investimentos especulativos na Internet e tecnologias associadas, principalmente em empresas projetadas para operar exclusivamente na Web, que possuíam o sufixo .com em seu endereço eletrônico. Muitas dessas propostas não vigoraram e, em 2000, ocorre uma fuga em massa do capital investido, principalmente na bolsa eletrônica NASDAQ. A retomada dos investimentos é inclusive fato recente, com maior moderação e estimulada pelo sucesso atual da Web 2.0, fenômeno abordado mais à frente na Seção 2.3.9, neste módulo.

6 Hipertexto 7 Links:

- construído conforme as idéias originais de Vanevar Bush (BUSH, 1945). elo de ligação entre hipertextos, que permite “passar” com facilidade de um hipertexto para outro.


Aspectos Técnicos e Sociais da Internet

2.2.2

27

Internet no Brasil

No Brasil, o primeiro acesso à Internet deu-se pela Bitnet no Laboratório Nacional de Computação do Rio de Janeiro (LNCC) e pela Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP). Tendo como base a Rede Bitnet, somente era possível a troca de e-mail pela Internet, sem conexão direta dos computadores à rede. Somente em 18 de julho de 1989 nasceu a Internet brasileira com a inauguração do Alternex no Rio de Janeiro. Em 1991, a Fapesp consegue estabelecer as primeiras conexões à Internet e administrar o domínio “.br”. Nessa mesma época foi implantada a RNP (Rede Nacional de Pesquisa), controlada pelo CNPq, com o objetivo de expandir a rede interacadêmica. Até então, esses recursos de comunicação encontravam-se mais centrados a atender objetivos de comunidades acadêmicas e contavam com as ligações providenciadas por fundações de pesquisa e do LNCC. Se a RNP restringia-se quase que exclusivamente à área de interesse da comunicação acadêmico-científico, algumas organizações não-governamentais, como o Ibase, passaram a fornecer as primeiras ligações de interesse privado. Esse quadro transformou-se radicalmente a partir do final de 1994, quando órgãos como Ministério das Comunicações e Ministério da Ciência e Tecnologia lançaram uma nota conjunta que mudou a política do governo para a área, passando a estimular o surgimento de provedores privados de serviços Internet, de forma a atender as necessidades de todos os segmentos da sociedade. É dai então que começam a entrar em funcionamento os primeiros servidores Web do Brasil: o LSI (Laboratório de Sistemas Integráveis) na USP, a UFRJ e a Escola do Futuro. Quando os provedores comerciais começam a propagar-se no Brasil. Isso possibilitou que a Internet migrasse dos centros de pesquisas universitárias para a população em geral. Em 1999, a America Online inaugura seus serviços no país e a UOL lança no Brasil o Brasil Online, disponibilizando contas gratuitas de e-mail. Ainda é possível observar que um dos ápices do crescimento da Internet no Brasil deu-se mais precisamente no ano de 2000, através do aparecimento de mais de 11 provedores gratuitos. Através desta descrição, pode-se verificar que a Internet no Brasil teve seu crescimento significativo dentro da escala de conexão mundial. Apesar do Brasil ainda ter deficiência de infra-estrutura, tanto em linhas telefônicas disponíveis à maioria da população, como a baixa taxa de pessoas que possuem computadores, no ano de 1999, o Brasil já ocupava o 6o lugar na posição dos 15 países que mais usavam a Internet 8 . Observa-se que os países que se encontram em posições mais van8 Dados

do instituto de pesquisa International Data Corp. de 1999 - são 27,8 milhões de linhas telefônicas no país para 166 milhões de habitantes.


28

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

tajosas no uso da Internet que o Brasil fazem parte do Primeiro Mundo (EUA, Japão, Reino Unido, Canadá, Alemanha), os quais encontram-se muito avançados tecnologicamente. É possível observar na mídia que o crescimento ao acesso à conexão Internet está ocorrendo rapidamente no Brasil, tendência fortalecida pelo uso de projetos de expansão do acesso, e popularização da informática, como exemplo: o Projeto Computador Popular, Projeto One Laptop per Child (OLPC), entre outros.

2.3

PRINCIPAIS SERVIÇOS DA INTERNET

Os sistemas na Internet comunicam-se enviando e recebendo pacotes de informação. Esses pacotes contêm parte dos dados componentes da informação, além de caracteres de controle e endereçamento necessários para levar os pacotes aos seus destinos e remontálos. Tudo isto é realizado pelos dois principais protocolos de controle de dados da Internet, o Protocolo de Controle de Transmissões e o Protocolo Internet (Transmission Control Protocol/Internet Protocol), formando o que se chama na teoria de Redes de Computadores, arquitetura TCP/IP. O protocolo IP cuida dos transportes dos dados em si, enquanto que o TCP procura estabelecer conexões de transporte. Quando um usuário solicita, por exemplo, a abertura de um site em seu navegador, há uma solicitação de uma conexão TCP. Dessa maneira, do navegador do usuário até o servidor do site solicitado, estabelece-se uma conexão virtual via TCP. Essa conexão virtual é efetuada através de portas lógicas, ligando-se uma porta cliente a uma porta servidora. Esse conceito de ligação é denominado de sockets. O funcionamento da camada IP é enviar (rotear) pacotes da origem ao destino final. Para tornar isto possível, toda interface sob a rede precisa de um “endereço IP”. Um endereço IP consiste de quatro números (bytes) separados por pontos, por exemplo: “167.216.245.249”. Na versão atualmente em uso do protocolo IP (versão 4), cada número está entre 0 e 255. As interfaces na mesma rede tende ter vizinhos com IP semelhantes. Por exemplo, a máquina com IP “167.216.245.250” situa-se próxima à máquina com o endereço IP “167.216.245.249”. Cada interface de Rede IP tem um endereço. Isso implica que para estabelecer uma conexão entre duas máquinas na Internet é preciso que uma saiba o endereço da outra. Dado que os seres humanos são melhores para memorizar nomes que números, foi criado um sistema que permite associar a cada endereço IP um ou mais nomes, facilitando o estabelecimento de conexões por parte do usuário. O Sistema de Nomes de Domínio (DNS – Domain Name System) associa um ou mais nomes a um dado endereço IP, permitindo que, por exemplo, que seja usado “www.linuxcare.com” dentro de um navegador, ao


Aspectos Técnicos e Sociais da Internet

29

invés de “167.216.245.249”. Esse serviço é implementado por um servidor DNS e o usuário precisa de um endereço de IP de pelo menos um desses “servidores de nomes” em sua configuração de rede. Consultas e respostas aos serviços DNS são pequenas e pouco falhas. Nesse tipo de situação, o protocolo TCP geralmente não é utilizado. Isso porque o TCP oferece serviços de retrotransmissão, ordenação e reabilitação geral de pacotes, mas com um custo de pacotes extras de envio através da Rede. Ao invés do TCP, o DNS e alguns outros serviços utilizam o Protocolo de Datagrama do Usuário (UDP - “User Datagram Protocol”), que não oferece essas características do TCP (não requisitadas por esses serviços). Mais sobre UDP e TCP pode ser visto em (SOARES; LEMOS; COLCHER, 1995). Um usuário doméstico, não conectado diretamente à Rede, utiliza um protocolo adicional, o Protocolo Internet de Linha Serial (SLIP - “Serial Line Internet Protocol”) em desuso, ou o Protocolo Ponto a Ponto (PPP - “Point to Point Protocol”). São protocolos que objetivam tornar um microcomputador equipado com modem a um nó de Internet, ou seja, estes dois protocolos definem um conjunto de regras que permitem que o computador usuário possa comunicar-se com o computador do seu servidor (e por conseqüência com toda a rede) através do modem e da linha telefônica. Assim, quando o usuário disca seu modem para um Provedor de Acesso (ISP - “Internet Service Provider ”), e estabelece a conexão por modem, o sistema operacional não envia os pacotes IP diretamente a ele. Isso é feito geralmente pelo PPP, através de uma conexão discada (dial up). Como existem vários usuários dial up no mundo, eles geralmente não tem seu próprio endereço de IP: Seus ISPs atribuem temporariamente um IP dinâmico através de negociação PPP. Observe que o usuário precisa ter em seu computador um software PPP que faça a ligação entre seu micro e o ISP. 2.3.1

World Wide Web - WWW

A World Wide Web, Web ou W3 incorporou e superou a maior parte dos sistemas informativos existentes, tornando-se o serviço da Internet que mais tem crescido nos últimos dez anos. É comum hoje que ela seja usada como forma de acesso a outros serviços, por exemplo pelas aplicações: WebMail, fóruns Web, senão bate-papo via Web. Além disso, vários outros software permitem edições colaborativas e são acessados via Web, como por exemplo: Google Map, Lotus Notes, Wikis, entre outros. Como a maioria destas ferramentas fazem parte da Web 2.0, elas serão abordadas logo a seguir na seção específica. Através de um programa cliente denominado navegador (Browser) Web, um usuário pode acessar todos esses tipos de serviços mencionados, além dos serviços tradicionais da Internet, como: servidores Golpher, FTP, News e HTTP. Esses aplicativos tem favorecido


30

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

interface hipermídia point and clic (apontar e clicar) que contribui para a popularização da Internet. A Web é um serviço hipermídia9 que permite um acesso universal a uma enorme quantidade de documentos em todo o mundo, possibilitando a navegação na Internet através de saltos de um documento a outro, mediante links (vínculos), criando um enorme documento “virtual”. Na Web esses documentos estão em geral organizados na forma de páginas HTML (uma linguagem de descrição de hipertextos). Cada documento na Web, seja ele HTML ou não, possui um endereço próprio denominado URL (Uniform Resource Locator, Localizador Uniforme de Recursos). O uso de URL permite localizar e conectar a qualquer documento em qualquer servidor da Web. A página inicial da Universidade Federal de Lavras, por exemplo, é localizada pela URL http://www.ufla.br/. Para poder navegar na página da UFLA, é necessário digitar esse endereço no campo location (endereço ou localização) do navegador, no Firefox por exemplo. O prefixo “http” da URL indica o protocolo utilizado para recuperar o documento. HTTP é o protocolo mais comum, entretanto a maioria dos navegadores são capazes de comunicarem-se com servidores utilizando outros protocolos, como FTP, ou de iniciar o programa especializado em outros protocolos, como um leitor de e-mail. Os principais aplicativos de navegação atualmente disponíveis para o Linux são capazes de exibir a totalidade de páginas da Internet e são reconhecidos como sendo mais seguros (isto é, resistentes às tentativas de instalação de vírus) do que os programas mais populares em Windows. O principal deles é o Firefox, navegador derivado do Mozilla, que por sua vez foi o resultado da abertura do código do navegador Netscape e sua transformação em software livre. Na verdade, versões do Nescape à partir da 6.0 são simplesmente o código do Mozilla, acrescido de um ou outro plug-in que não é software livre (como o Flash da Macromedia)10 e serviços de ajuda para instalação. Mozilla pode ser vizualizado na Figura 2.2 e Firefox na Figura 2.1, ambos também podem ser utilizados em outros sistema operacional, como o Windows. O Gecko11 é o engine de renderização de HTML do Mozilla e Firefox. Ele foi utilizado em vários outros projetos software livre, como os navegadores Web Galeon12 e Epiphany13 , além de leitores de e-mail como, o Thunderbird, todos focados no desktop Gnome. 9O

significado deste termo e suas implicações serão aprofundados no Capítulo 3. Flash pode ser instalado junto ao navegador Mozilla ou Firefox. Mas, a licença não-livre do Flash impede que ele seja distribuído dentro do instalador destes programas. O mesmo ocorre com outros plug-ins populares, como o QuickTime e o Acrobat Reader. Nestes casos, existem outros softwares livres capazes de cumprir com as mesmas funções. 11 http://www.mozilla.org/newlayout/. 12 http://galeon.sourceforge.net/. 13 http://epiphany.sourceforge.net/. 10 O


Aspectos Técnicos e Sociais da Internet

31

Figura 2.1: Navegador Web Firefox

O navegador Konqueror14 é fornecido pelo ambiente KDE. Esse navegador foi criado de forma independente do Mozilla e serviu de base para o navegador Safari15 incluso no MacOS X, que infelizmente é software proprietário. Durante anos o Konqueror foi considerado o navegador mais leve e poderoso para Linux. Mas, hoje o Firefox e Mozilla costumam apresentar melhores resultados, inclusive em páginas que estão fora dos padrões do W3C e usam características (ou mesmo erros) do Internet Explorer da Microsoft. Também podem ser utilizados em Linux alguns navegadores proprietários como o Opera16 , que se tornou conhecido dada a sua velocidade e por possuir executável de pequeno tamanho, comparado aos demais. 14 http://docs.kde.org/stable/en/kdebase/konqueror/index.html. 15 http://www.apple.com/macosx/features/safari/. 16 http://www.opera.com/products/desktop/.


32

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura 2.2: Navegador Web Mozilla

Ainda precisa ser mencionado os navegadores em modo texto não interativos. A utilidade do uso desses aplicativos ocorrem em ambientes remotos ou em servidores que não tem ambiente gráfico. Os dois navegadores mais conhecidos em modo texto são o Lynx17 e o Links18 . Também pode ser citado o Wget19 , que permite em um único comando criar um espelho local de um site web completo, apontando o programa para a página inicial deste site e pedindo que ele siga todos os links que não apontam para outro site. 2.3.2

Correio Eletrônico

O correio eletrônico (e-mail) é um dos serviços mais utilizados na Internet, bem como um dos responsáveis pela sua difusão. Ele permite que duas pessoas possam enviar mensagens escritas, contendo ainda informações em diversos outros formatos (imagens, áudio e outras aplicações) associados ou “anexos” à mensagem (attachment). Para poder beneficiar-se deste serviço, basta que se tenha acesso a uma conta de correio na Internet. 17 http://lynx.isc.org/. 18 http://links.twibright.com/. 19 http://www.gnu.org/software/wget/.


Aspectos Técnicos e Sociais da Internet

33

Em geral, uma mensagem leva poucos segundos ou minutos dependendo da quantidade de informações que se envie para chegar até o destino. Essa rapidez de envio de uma mensagem pelo e-mail está diluindo a distância e o tempo. Por isso, considera-se esse recurso tecnológico de comunicação revolucionário. Não é difícil imaginar a lentidão do processo de distribuição de separatas e textos acadêmicos antes da Internet. Ou, em empresas, o tempo de envio de contratos, memorandos e notas fiscais. Os endereços de e-mail são formados por um nome de caixa postal anexado a um nome DNS, separados por um sinal de “arroba” ou @. Por exemplo, “kacilene@ginux.ufla.br”. O “nome de caixa postal”, em geral é igual ao nome de login de um usuário em um provedor Internet ou no servidor que fornece o serviço de e-mail para a empresa. O nome DNS, em geral, é o nome de domínio do provedor ou empresa. O nome da caixa postal também pode ser o nome de um alias, que remete para a caixa postal real (que tem outro nome e está possivelmente em outro domínio); ou um nome de grupo (lista de e-mail), que irá replicar todas as mensagens recebidas para várias caixas postais associadas ao grupo. O envio de e-mail depende fortemente do DNS, não só por usar os nomes de domínio para identificar os destinatários das mensagens, mas também porque são os servidores DNS que fornecem a localização do servidor de e-mail ao qual devem ser entregues todas as mensagens endereçadas para um determinado domínio. Então, embora seja possível ter um servidor Web, sem ter um domínio DNS próprio (fazendo a conexão diretamente ao endereço IP do servidor), não será possível fazer o mesmo com um servidor de e-mail, pois a mensagem não será endereçada para este servidor. De uma forma geral, uma mensagem de e-mail possui: • um remetente (from), especificado pelo endereço eletrônico de quem envia a mensagem; • um ou mais destinatários (to), especificados por um ou mais endereços eletrônicos separados por vírgula; • um ou mais receptores de cópia (cc), especificados por um ou mais endereços eletrônicos separados por vírugula, para os quais será enviado uma cópia da mensagem; • um ou mais receptores de “cópia cega” (bcc), especificados por um ou mais endereços eletrônicos separados por vírugula, para os quais será enviado uma cópia da mensagem sem que os demais destinatários sejam informados disto; • um assunto (subject), campo onde especifica-se o teor da mensagem, facilitando a identificação de seu conteúdo; • o corpo da mensagem (body), onde vai a mensagem propriamente dita;


34

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

• anexos (attachments), arquivos binários ou em modo texto que são enviados junto à mensagem. Existem vários clientes (leitores) de e-mail em Linux, satisfazendo as diversas necessidades de seus usuários. Era comum ter estes programas embutidos em navegadores Web, como por exemplo no Netscape e no Mozilla. Mas, hoje o mais comum é usar um programa independente. No Linux, os mais populares são o Evolution20 , KMail21 e Thunderbird22 , esse último derivado do Mozilla e apresentado na Figura 2.3. Entre os leitores para usuários de modo texto, merecem destaque: o Pine23 e Mutt24 .

Figura 2.3: Leitor de e-mail Thunderbird em Linux

Alguns provedores e empresas preferem não expor seu servidor de e-mail para a leitura direta de mensagens pelos usuários. Ao invés disto oferecem um acesso via Web, em que um programa atua como o leitor de e-mail e transforma as mensagens em páginas HTML exibidas por um navegador. Este programa é chamado de WebMail e surge como uma 20 http://www.gnome.org/projects/evolution/. 21 http://kmail.kde.org/. 22 http://www.mozilla.com/thunderbird/. 23 http://www.washington.edu/pine/. 24 http://www.mutt.org/.


Aspectos Técnicos e Sociais da Internet

35

opção a mais. Ou seja, o usuário pode ora usar um leitor de e-mail (por exemplo, quando estiver em sua casa ou escritório) e ora usar o programa de WebMail instalado no servidor Web do seu provedor, por exemplo, quando não estiver acessando via sistema operacional Linux. Com a difusão do uso do e-mail e sua importância, esse recurso acabou tornando a forma universal de comunicação, praticamente quase abolindo a circulação de informação em papel em determinados ambientes. Em vários segmentos da sociedade atual, a solicitação de um serviço chega como correio eletrônico para o técnico que vai realizar o trabalho. Se a solicitação for apenas informação, a resposta irá diretamente para o endereço eletrônico do solicitado. Isso torna a cada dia menos importante tanto o uso de papel, como as ligações por telefone. Em outras palavras, a maior parte das atividades atualmente estão saindo do lugar físico tradicional de trabalho, para um outro tipo de espaço que é virtual25 e está exigindo mudanças na forma de organização dos trabalhadores. Por outro lado, a comunicação via correio eletrônico possui como problema a segurança da informação transportada pela rede. Não é difícil que uma mensagem possa ser interceptada e lida enquanto trafega pela rede. Para esse problema os especialistas em informática tem como solução a encriptação das mensagens. O GnuPG26 é um software livre, disponível na maioria das distribuições do Linux, que faz encriptação e decriptação das mensagens, garantindo que elas só poderão ser lidas pelo seu verdadeiro destinatário. Entretanto, o GnuPG não realiza o envio e recebimento de mensagens, uma vez que, ele não é um leitor de e-mail. Alguns leitores são capazes de chamar diretamente o GnuPG, ou seu equivalente proprietário, o PGP, quando necessário; outros necessitam de plug-ins externos, como o Enigmail27 para o Thunderbird e Mozilla, que façam esta integração. Na ausência de um leitor de e-mail com a capacidade de integrar-se a um programa de criptografia, será necessário salvar as mensagens em arquivos em disco para que possam ser descriptadas e lidas. Outra questão problemática com o uso do e-mails, diz respeito à dificuldade de entendimento das mensagens, por carecer de informações transmitidas pela linguagem corporal, como: tom de voz, pausa, hesitações da voz, suspiros, desânimo, alegria, gestos, etc. No correio eletrônico essas informações perdem-se, de maneira que as tentativas de mostrarse irônico ou engraçado, por exemplo, podem ser mal interpretadas. Deve-se a esse fato, que a comunicação no ciberespaço requer o uso de “regras de etiqueta” diferenciadas, con-

25 Esse

espaço virtual também denominado ciberespaço será abordado com detalhes no Capítulo 3 desta

apostila. 26 http://www.gnupg.org/. 27 http://enigmail.mozdev.org/.


36

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

vencionando, por exemplo, que quando escreve com letras maiúsculas está GRITANDO! Porém essa etiqueta não é aceita por todos no universo da rede de Internet. Contudo, o problema que mais tem atormentado durante a comunicação via e-mail refere ao excesso de SPAM, mensagens não-solicitadas, similares à panfletos de promoções do comércio ou de candidatos a cargos políticos colocados regularmente nas caixas de correio residenciais. O envio de e-mail tem custo quase zero, ao contrário do correio terrestre em papel, e pode ser enviado com facilidade para milhares de destinatários, em poucos minutos. Estima-se que 40% da capacidade de largura de banda e de disco da maioria dos provedores Internet seja consumida pelo SPAM, que acaba prejudicando a capacidade das pessoas de receberem e usarem as mensagens que lhes são verdadeiramente úteis. O SPAM também acaba sendo usado para propagar vírus, fraudes virtuais, ou em simples “pegadinhas”, os chamados hoaxes28 . Um hoax é uma mensagem que aparenta ser um alerta bem-intencionado ou um pedido de ajuda desesperado, que alguém recebe inicialmente como SPAM e acredita ser verdadeiro, depois repassa para todos os seus conhecidos, multiplicando o efeito do SPAM original. Curiosamente, ainda hoje existem hoaxes circulando na Internet que foram originados nos dias da ARPANET. Um exemplo é o “Good Times”29 que alerta sobre uma perigosa mensagem, que se aberta, apagaria todo o disco rígido de quem a receber. Entretanto, é importante mencionar que usuários de aplicativos leitores de e-mail software livre, como os recomendados neste textos, estão imunes aos vírus de e-mail. 2.3.3

Fóruns e Listas de Discussão

Uma lista de discussão é um endereço eletrônico utilizado para enviar mensagens simultaneamente para um grupo de pessoas, permitindo estabelecer comunicação assíncrona entre pessoas conectadas via Internet. Em geral, estas mensagens servem para anunciar acontecimentos de interesse geral para todos os membros que a ela integram-se. Geralmente, uma lista é gerenciada por um ou vários coordenadores, denominados moderadores, cuja missão principal é fazer com que se respeitem as normas de utilização desse serviço. Na realidade, uma lista de discussão é um grupo de pessoas que intercambiam mensagens sobre uma temática particular, compartilhando seus conhecimentos e debatendo sobre temas de interesse comum. Esse é um serviço cada vez mais demandado pelo usuário da Internet, pois permite criar grupos homogêneos agrupados por temas de interesses comuns. Esses grupos de interesses comuns na atualidade são as “tribos” que habitam 28 http://hoaxbusters.ciac.org/HBHoaxIndex.html. 29 http://hoaxbusters.ciac.org/HBMalCode.shtml.goodtimes.


Aspectos Técnicos e Sociais da Internet

37

no ciberespaço. Nesse caso, se o usuário é um hacker há uma lista especial para ele, se gosta de poesia, encontrará uma lista adequada. Em cada lista encontrará pessoas que falam sobre os assuntos e com a “língua” da tribo. A quantidade de grupos é tão grande quanto a variação de interesses. Uma lista de discussão pode ser criada de duas formas. Uma envolve o uso de um servidor e de um cliente especializado, inclusive foi esta forma que criou o NetNews30 , na antiga USENET, atualmente extinta. Entretanto, o seu software (servidor e leitor de notícias) e seu protocolo (NNTP) estão presentes na Internet atual. É possível participar dos mesmos grupos e seguir o histórico de discussões que se iniciaram há mais de 20 anos, além de grupos novos que surgem a cada dia. Existem vários programas gráficos e textuais para o acesso aos NetNews, mas a maioria dos leitores de e-mail também são capazes de ler e enviar mensagens via NNTP, eliminando a necessidade desse cliente específico. Uma outra forma relativamente popular para criar lista de discussão consiste no uso de um programa que recebe e envia e-mail como se fosse um usuário humano. Este programa, originado na BITNET, era chamado LISTSERV, e replicava todas as mensagens enviadas para um endereço específico, para todos os assinantes da lista representada por este endereço. Melhor ainda, era possível enviar mensagens para entrar e sair da lista, assinar ou deixar de ser assinante. Hoje há uma grande quantidade de softwares capazes de fornecer esta funcionalidade, enquanto os usuários da Internet interagem rotineiramente com estas listas de e-mail. Com a popularização da Web foi fomentada outra forma de criar um fórum de discussões, que mistura características das duas maneiras originais. É a criação de uma página dinâmica ou aplicação Web, que permite a leitura de mensagens armazenadas em um banco de dados. Além disso, pode-se fazer a inclusão de novas mensagens neste mesmo banco, bastando que a pessoa receba um nome de usuário e senha no site que hospeda o fórum. Uma última forma de “fórum” que está ganhando popularidade na Internet é o RSS (Really Simple Syndication)31 . RSS é um tipo de “NetNews degenerado”, em que é possível apenas receber mensagens de um canal. Somente o administrador do canal pode enviar mensagens para os demais assinantes. O RSS utiliza um formato XML que permite o envio de gráficos e outras informações, ao contrário do NetNews que é puramente textual. O uso típico do RSS consiste na divulgação de notícias sobre novas versões de um programa, novos artigos em um site de notícias ou novas promoções em uma loja virtual. Pode-se considerar o RSS como similar ao rádio e TV convencionais, nele o usuário atua apenas como receptor de informações, mas ele tem liberdade de optar pelas fontes de informação (canais) que se interessa. Em geral, o 30 http://www.faqs.org/faqs/usenet/software/part1/. 31 http://www.w3.org/RDF/.


38

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

RSS é usado internamente por um site web, para capturar informações vindas de outras fontes. Mas, alguns leitores de e-mail são capazes de conectar a servidores RSS, como por exemplo: o Thunderbird. Existem ainda leitores (chamados de “agregadores”) RSS independentes, como o RSSOwl32 . 2.3.4

Comunicação Instantânea e Bate-Papo

As formas de comunicação síncronas, representadas antes da Internet pelo telefone, são muito atraentes e estimulativas, conforme pode ser confirmado pela popularidade das “salas de bate-papo”, principalmente entre o público adolescente. A comunicação síncrona mais popular na Internet voltada para grupo é o IRC (Internet Relay Chat). O IRC permite a comunicação em tempo real, identificando os participantes por meio do uso de nicknames (apelidos). A “conversa” no IRC está organizada por canais de conversações, cada canal (ou sala) trata sobre um tema ou debate em específico. Para participar em comunicação via IRC, primeiramente é preciso escolher o canal que pretende acessar ou criar um novo canal com a temática que lhe interessa. Para estarem juntos em uma mesma sala, duas ou mais pessoas precisam conectarem-se a um mesmo servidor IRC. É possível “entrar” e “sair” de uma sala a qualquer momento, e em geral os servidores IRC não são configurados para exigir login e senha para acesso. Também é possível estabelecer uma conversa privada via IRC, depois de “encontrar” alguém em uma sala pública. O cliente IRC mais conhecido no Linux é o X-Chat33 que pode ser visualizado na Figura 2.4. O X-Chat é um cliente IRC gráfico, possuindo versões para diversos sistemas operacionais como: FreeBSD, Solaris, AIX, MacOS X, Windows 9x/NT. Outro serviço voltado para comunicação síncrona entre duas pessoas é o ICQ34 um software israelense de extremo sucesso que foi posteriormente comprado pela America Online. Este tipo de serviço também é conhecido como “mensagens instantâneas” (Instante Messaging IM). Além do ICQ que presta este serviço tem também os programas, como: AIM e MSN. Eles são mantenedores de “lista de contatos” que informam sobre conhecidos que estejam conectados, em tempo-real. É através desta funcionalidade que é possível saber quem está disponível para uma conversa instantânea. O Jabber35 é um protocolo aberto e seguro de Instante Mensagen. É possível rodar seu servidor Jabber para uso apenas interno, ou tornar o seu servidor Jabber “federado” com outros servidores Jabber, de modo que seja possível estabelecer conversações entre 32 http://www.rssowl.org/. 33 X-Chat

http://www.xchat.org/. pronuncia-se como I seek you - “eu procuro você”. 35 http://www.jaber.org.

34 ICQ


Aspectos Técnicos e Sociais da Internet

39

Figura 2.4: X-Chat, cliente IRC para Linux

pares de pessoas independente do servidor ao qual estejam conectadas. Pode-se dizer que o Jabber é uma alternativa livre dos problemas de segurança e privacidade, que se mostraram evidentes em todas as opções proprietárias deste tipo de serviço. Entre as empresas que utilizam-se do protocolo Jabber pode ser mencionado o Google, implementado no Google Talk36 . A maioria dos clientes de IM fornecido para Linux são capazes de conectarem-se a todos os serviços livres e proprietários disponíveis na Internet. Um dos mais populares é o Gaim37 , apresentado na Figura 2.5 e Pidgin38 ambos também tem versões para Windows. 2.3.5

Compartilhamento de Arquivos: FTP e P2P

Desde a ARPANET que os serviços de compartilhamento de arquivos estão disponíveis na Internet, o protocolo mais utilizado para executar este serviço chama-se FTP (File Transfer Protocol). Através do FTP é possível envio de arquivos de tamanho e tipo arbitrário de um computador remoto para um computador local e vice-versa. Um servidor FTP pode ser configurado tanto para ser acessível via login e senha, como na modalidade de “FTP Anônimo”, ou seja, a partir de qualquer senha enviada o reconhecimento será pos36 Google

Talk - http://www.google.com/talk/.

37 http://gaim.sourceforge.net/. 38 Pidginhttp://www.pidgin.im/download/.


40

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura 2.5: Gaim conectado a um servidor Jabber

sível. Convencionalmente para acessar este serviço o usuário preenche o seu endereço de e-mail, a fim de que o administrador do repositório de arquivos reconheça quem está utilizando seus serviços. Dentre os clientes de FTP no Linux podem ser citados: o gFTP39 , em modo gráfico, o NcFTP40 , em modo texto. Além disso, a maioria dos navegadores de Internet, atua como cliente FTP. Inclusive, atualmente os clientes FTP estão migrando para Web, sendo possível incluir em uma página HTML link para qualquer tipo de arquivo que esteja em um espaço do FTP anônimo. Ainda existem os Gerenciadores de Download que permitem ao usuário ter mais controle sobre o processo de baixar um arquivo, como interromper um download para continuar mais tarde, verificar porcentagem de arquivo que chegou na máquina local. Um gerenciador de Download conhecido em Windows é o GetRight. No Linux existe outro o Wget que 39 http://www.gftp.org/. 40 http://www.ncftp.com/.


Aspectos Técnicos e Sociais da Internet

41

funciona em linha de comando e não integrado ao navegador, como o Gwget41 , que é integrado ao Firefox e Nautilus. Atualmente, os clientes BitTorrent estão sendo bastante usados para esta tarefa de donwload e compartilhamento de arquivos entre as pessoas, além de servidor no sentido tradicional. Dentre o BitTorrent mais utilizado para Linux e Windows destaca o Azureus42 . Mais detalhes sobre esta tecnologia ver na Seção 2.3.9. A NFS (Network File System) do UNIX e o SMB (Server Message Block) da Microsoft, cuja versões mais recentes é chamado de CIFS (Common Internet File Sharing) são os serviços de compartilhamento de arquivo criados para redes locais que podem ser utilizados via Internet. Esses serviços são mais transparentes que o FTP, por encontrarem-se integrados ao sistema operacional. Mas, as suas performances não fornecem recursos necessários em um ambiente de rede de longa distância, como retomar uma transferência interrompida por problemas de conexão, sem exigir a transmissão de todo o arquivo. Para administrar sites web com a facilidade em fazer cópia de um servidor para outro, bem como manter as cópias atualizadas, no Linux destaca-se o serviço rsync43 . O serviço rsync é ideal para a criação de espelhos, em que um site web (ou repositório de arquivos) mantém uma cópia de outro site, dividindo o volume de usuários e permitindo que o conteúdo permaneça acessível em caso de problemas técnicos em um dos sites. Mas, como o usuário final acessa o site ou repositório de arquivos com clientes normais ao propósito, ele dificilmente toma contato com o rsync. O conceito de aplicações peer-to-peer, ou P2P revolucionou a forma de compartilhamento de arquivos via Internet nos anos recentes. A tradução “ponto-a-ponto”, para P2P, não transmite o significado do conceito como adotado pelo compartilhamento de arquivos na Internet. Na Internet realizar uma conexão P2P significa que não há necessidade de servidores especializados, o que quer dizer que qualquer usuário poderia atuar como servidor, para compartilhar seus arquivos diretamente, sem antes precisar copiá-los para um servidor Web ou FTP em um provedor. Como as aplicações P2P foram utilizadas para fazer cópias ilegais de músicas, vídeos e programas criou-se uma fama negativa em torno desse serviço, a ponto delas serem banidas em muitas empresas. Os usuários domésticos, geralmente fazem uso das aplicações P2P proprietárias, como: eMonkey e Kaaza. Com as aplicações P2P, além de permitirem o Download , a maioria delas tem serviço centralizado de registro de localização de usuários, o que permite ao criador do serviço cobrar o acesso ou utilizá-lo para a venda de propagandas.

41 http://gwget.sourceforge.net/. 42 http://azureus.sourceforge.net/. 43 http://rsync.samba.org/.


42

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Atualmente existem aplicações livres (clientes e servidores) para Linux que implementam o conceito P2P: o eMule44 , por exemplo, é um software livre, que não depende de um serviço central proprietário de localização dos usuários, e mantém-se livre de spywares45 . 2.3.6

Mecanismos de Busca

Dentre os sites de busca mais utilizados compete mencionar o Google e o Yahoo que são os mais populares. O princípio de utilização desses mecanismos de busca é relativamente simples, o usuário digita uma palavra ou frase que deseja pesquisar e o site retorna uma página com links para todas as outras páginas da Internet que contém aquele assunto mencionado para pesquisa. O programa spider cria e atualiza constantemente o banco de dados. O spider funciona como uma “aranha” que anda pela “teia”, em busca de todas as páginas da Internet, separa as páginas encontradas e salva este conteúdo no banco de dados. Esses serviços de busca são oferecidos gratuitamente na Internet, sendo sua estratégia de negócio voltada para a venda de propaganda localizada nos espaços das páginas de busca ou páginas de resultados de busca. As empresas que anunciam seus produtos ou seja utilizam-se deste tipo de marketing, os fazem na esperança de que a propaganda atinja o seu público-alvo. Isto é mais díficil na mídia tracional como TV e jornais, cuja comunicação de massa não permite a personalização e especificidades. Por sua vez, como nos sites de busca, o público alvo desejado pode ser atingido, uma vez que quem faz a busca declara interesses específicos e, com isto, o anunciante paga apenas de acordo com a quantidade do público. Do lado desses serviços de busca a relação também é vantajosa, uma vez que cada página gerada, para cada usuário que acessa seus mecanismos, consiste um espaço potencial para a venda de propaganda. Vários espaços podem ser vendidos ao mesmo tempo, já que eles são vistos por usuários diferentes, enquanto que na mídia convencional existe um único local disponível para negociação de propaganda. 2.3.7

Comércio Online

Essa forma de aplicação diferenciada da Web é uma prática que faz parte desde seus primórdios, a cada dia ela está expandindo-se e diversificando os seus formatos. As lojas virtuais como Amazon Books46 são consideradas como um exemplo de como ganhar 44 http://www.emule-project.net. 45 Um

programa Spyware monitora as atividades do usuário de um computador (sites que ele navega, as aplicações que utiliza, as senhas de acesso aos serviços) de forma que oculta, muitas aplicações P2P, principalmente proprietárias que permitem diversos tipos de spywares. 46 http://amazon.com/.


Aspectos Técnicos e Sociais da Internet

43

dinheiro na Internet. Essa “empresa virtual” negocia produtos como: livros, CDs, DvDs, utencílios domésticos, móveis e outros que possam ser comprados e recebidos em casa. Além disso, esses serviços também afetaram áreas como as dos setores financeiros, como: os “Internet Banking”. Nos dias atuais, em nosso país é possível fazer qualquer movimentação bancária (exceto saques e depósitos em dinheiro e cheque), pelo site do próprio banco. Em vários contextos e situações é menos complicado realizar operações como: emitir extratos e pagar contas pelos meios tradicionais, do que através da forma virtual. Por sua vez, juntamente com essas possibilidades de “transações financeiras virtuais”, emergem no ciberespaço os crimes digitais, as possibilidades de fraudes e roubos como os SPAMs já mencionados, e outras formas que serão vistas no Capítulo 4. 2.3.8

Provedores Gratuitos

É interessante mencionar que alguns dos seviços da Internet são normalmente oferecidos gratuitamente. Inclusive, dentre os serviços oferecidos de forma gratuita constam: os espaços para colocar págicas na Web, para abrir contas de e-mails, além de alguns provedores de acesso que não cobram taxa por esse serviço. Como é sabido são empresas privadas que geralmente oferecem estes serviços de forma gratuita, o que induz a indagação sobre como conseguem se manter financeiramente. A estratégia de negócio dessas empresas é a venda de propaganda em página web ou em mensagens eletrônicas. Isto significa que quanto mais usuários estiverem usando seus serviços, mais essas empresas tem possibilidades para negociarem espaço de propaganda. Muitas empresas, como a Microsoft investem na oferta de serviços gratuito, como os oferecidos pelos sites MSN visando manter sua marca no mercado, ou mesmo preservar sua imagem de empresa líder em tecnologia. Logicamente, cada novo usuário de serviços concorrentes é um potencial usuário de programas concorrentes, e no final das contas um potencial usuário disposto a abandonar completamente todos os programas da Microsoft em favor de alternativas. Como no mercado atual existem várias alternativas de programas, para que as empresas sobrevivam nesse mundo competitivo de software, elas precisam manter um grande percentual de internautas utilizando seus serviços gratuitos, o que é o caso do MSN, Gmail, Google, entre outros. Existem estas formas de estender o monopólio que uma empresa detém sobre aplicativos e sistemas operacionais para o usuário final, através da Internet. Pode ter uma ponta de verdade quanto a afirmativa que empresa como a Google dão grande


44

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

apoio aos projetos de software livre visando evitar que os usuários escolham comprar produtos dessas empresas que estão com monopólio. 2.3.9

Web 2.0

Atualmente estamos presenciando acentuado aumento da prática coletiva na rede, a qual tem sido incentivada pelo surgimento das ferramentas que possibilitam ao usuário elaborar e controlar o conteúdo na Web, de uma forma interativa e colaborativa. Obviamente, essa prática, denominada Web 2.0, não se aplica a todo o ciberespaço, mas é cada vez mais presente. Entre os exemplos que caraterizam essa prática, destacam-se as enciclopédias colaborativas, os sites de notícias, controladas pelos usuários, as aplicações desktop via Web, o compartilhamento de informação, e por fim a blogosfera. De acordo com Tim O’Reilly (O’REILLY, 2005), o conceito de Web 2.0 começou em uma seção de “brainstorming” em uma conferência. Nesta conferência Dale Dougherty pioneiro da Web “notou que longe de ter quebrado, a Web estava mais importante do que antes, com novas aplicações e sites excitantes” surgindo com grande freqüência. Os participantes desta conferência perceberam que entre o responsável por uma virada na Web ser o colapso do pontocom ou a existência de uma chamada Web 2.0, escolheram a segunda opção. A partir deste momento teria nascido a “Web 2.0 conference” (O’REILLY, 2005). Na seção de “brainstorming”, os participantes buscaram formular um significado para Web 2.0 delineando alguns aplicativos e serviços da Internet que pudessem diferenciá-lo da Web 1.0. Em (O’REILLY, 2005) é apresentado um mapa, conforme mostra a Figura 2.6, que caracteriza a Web 2.0 como uma plataforma. Para O’Reilly, a plataforma Web 2.0 não tem limites rígidos, mas sim um núcleo gravitacional, em que os próprios usuários controlam as informações. Na realidade, não são os pacotes fechados de programas que caracterizam a Web 2.0, mas sim a existência de novos serviços e aplicativos na Internet, cuja sua arquitetura permite a construção colaborativa da informação, a alteração de dados pelos usuários. Nesta seção do módulo, o que mais importa é mostrar as características e aplicações dessa Web 2.0, os quais tem como princípio a cooperação. Observando a Figura 2.6, destacam-se três regiões onde o centro não apresenta um núcleo gravitacional, mas identifica a Web 2.0 como plataforma que objetiva dar mais liberdade ao usuário para controlar seus próprios dados e permitir a participação dos demais usuários. Nos balões localizados acima estão destacadas as principais aplicações e nos demais balões contém as características que marcam essa Web 2.0. Dentre as características da Web 2.0 pode ser mencionada a importância dada à participação dos usuários da Web para seu desenvolvimento, o que está de acordo com a formação da inteligência coletiva, conforme (LÉVY, 1995). Ao mesmo tempo, essa forma


Aspectos Técnicos e Sociais da Internet

45

Figura 2.6: Web 2.0 Meme Map – Fonte: (O’REILLY, 2005)

de participação lembra o início da Internet, em cuja base de formação esteve o trabalho cooperativo de hackers habilidosos. É interessante observar que os principais aplicativos que fazem parte da Web 2.0 são evoluídos a partir da fonte de experiência advinda de seus usuários. Seguindo o princípio de que quanto mais os indivíduos usam um software, mais este evolui e mais percebe-se as necessidades de adaptações. Nesse contexto, o caráter de uso dos aplicativos e serviços da Web tem por base a experimentação, o usuário tem a liberdade para utilizá-los da forma que desejar, inclusive podendo fazer alterações e adaptações necessárias às suas preferências. Essa possibilidade de adaptações propiciam comportamentos não previstos quando da elaboração dos aplicativos ou ferramentas. Tais imprevistos dão origem a evolução constante no desenvolvimento de funcionalidades de seus aplicativos. A liberdade instituída para modificar e adaptar os sistemas e aplicativos conforme suas preferências acaba com a prática de “alguns direitos reservados”, para algo mais livre como “direito para remixar”, o qual permite mais autonomia ao usuário. Na prática a preservação


46

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

é instituída ao autor do aplicativo, porém o usuário na maioria das vezes pode personalizá-lo conforme seu perfil. Esse princípio que privilegia a liberdade está de acordo com o espírito hacker, ou comportamento “hackability”, o qual reflete a incessante luta pelo acesso aos computadores e ao livre acesso às informações. Pode-se dizer que o comportamento “hackability” funciona como pano de fundo da Web 2.0, o que resulta nas constantes atualizações dos programas tornando-os apresentados diariamente como versão beta. Tendo como contexto as características supra mencionadas, a Web 2.0 como plataforma não constitui um pacote de software, mas alguns aplicativos e serviços destacam-se por suas funcionalidades, conforme são apresentados a seguir: Flickr, Del.icio.us - etiquetação, em contraposição à taxonomia: O flickr47 é um fotolog, cujas fotos publicadas permitem a formação de relações sociais entre seus integrantes. O Del.icio.us48 é um site que permite armazenar, publicar e compartilhar bookmars com um indivíduo que pode acessá-lo. A idéia de etiquetação ou “tagging” e não de taxonomia, refere-se ao fato de que ao invés de indexar as informações através de um vocabulário controlado, o indivíduo pode armazená-las utilizando tags que seriam as palavras que ele mesmo escolhe para relacionar ao assunto do documento que está armazenado. Gmail, Google, Maps e AJAX - usuário rico em experiências: O Google é uma aplicação Web que oferece vários serviços, bem como é aperfeiçoado em função do uso de seus usuários. O serviço de e-mail Gmail, por exemplo é beta desde sua origem aos dias atuais, com atualizações constantes de serviços. Atualmente, por exemplo é possível utilizar o Google Talk49 na página inicial do Gmail, através do uso de AJAX. AJAX50 , por sua vez, é uma tecnologia que permite atualizar uma página sem precisar atualizar um site inteiro. Em síntese, a importância maior do Google está em reconhecer constantemente as necessidades de seus usuários. Ao disponibilizar novos serviços e ferramentas, o Google analisa a receptividade dos usuários, a fim de implementar ou não o mecanismo, o que permite ao usuário direcionar o rumo das inovações desse sistema. PageRank, reputação no eBank, revisão na Amazon – o usuário como colaborador: O sistema PageRank é um motor de busca do Google que determina a importância de uma página em função da quantidade de links que a página recebe, ou seja, quanto mais os internautas forem linkando as páginas, mais no topo da busca aparecerá o site. O eBay51 funciona através da atividade de seus usuários que compram e vendem 47 http://www.flickr.com. 48 http://del.icio.us/. 49 Sistema

de conversação em tempo real. em língua inglesa de Asynchronous Javascript and XML. 51 http://www.ebay.com/. 50 Acrônimo


Aspectos Técnicos e Sociais da Internet

47

dentro do site. A Amazon52 adapta-se ao perfil de compras do usuário, usando mecanismo que resgata as visitas anteriores de um cliente e na próxima visita apresenta uma página inicial personalizada para esse usuário. Por fim, é importante destacar que a maioria dos serviços da Web 2.0 são aprimorados conforme as necessidades e exigências de seus usuários. Blogs – participação, não publicação: O que caracteriza o blog como ferramenta da Web 2.0, além da possibilidade de publicação aberta é o fato de conectar os blogueiros que lêem e interagem mutuamente com os blogs, através de ferramentas de comentários, bem como da rede de links entre os blogs. Uma das coisas que tem feito diferença é a tecnologia chamada RSS53 , a qual trouxe avanço significante na arquitetura fundamental da Web. O RSS produz o efeito das trackbacks, ou seja, possui recursos que permitem receber aviso de outro blog, de forma que os posts que discutem os mesmos assuntos ficam relacionados. Esse recurso, que permite ligar os posts entre si de um blog em outro, permite que a discussão prolongue-se sobre determinado assunto, fazendo com que os leitores de um blog possam ler o que foi publicado em outro blog. No contexto da Web 2.0, a importância dos blogs está associada ao feeds (RSS) que teve sua aplicação inicial dentro dessas páginas. O RSS permite não só que alguém link uma página, mas que a pessoa também seja avisada de cada atualização que essa página sofra. Pode-se dizer que a Web torna-se dinâmica com os links e com o RSS que notifica os usuários das modificações hipertextuais que ocorrem nas páginas e assim movimenta a navegação e conseqüentemente a rede hipertextual se altera à medida em que as páginas são visitadas e alteradas. Wikipedia: confiança radical: É uma enciclopédia livre, criada em 2001, cujo conteúdo qualquer um pode editar, acrescentando, apagando e corrigindo as informações. A Wikipedia54 é constantemente abastecida por milhares de pessoas, com interesses dispares, o que resulta em informações atualizadas sobre diversas tribos culturais. BitTorrent: descentralização radical: É o maior símbolo da terceira geração de sistemas de compartilhamento de arquivos online. Sua característica técnica é a de que os arquivos são fragmentados e guardados de modo descentralizado. Quem usa o programa guarda pedaços do arquivo copiado em seu computador para oferecer aos outros usuários. Então, ninguém copia um arquivo de um único ponto, mas recebe trechos de outros computadores da rede. Este artifício torna mais veloz o compartilhamento. Quanto mais gente se interessa por um arquivo, mais cópias de trechos dele haverá. O BitTorrent também destaca-se pelo forte exemplo de cooperação de 52 http://www.amazon.com. 53 O

RSS apesar de referir a uma única tecnologia do ponto de vista prático, possui vários significados de acordo com a versão em uso: RSS versão 0.91, Rich Site Summary; RSS versão 0.9 e 1.0, RDF Site Summary; RSS versão 2.0, Really Simple Syndication. 54 www.wikipedia.org.


48

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

informação ao tornar obrigatório a disponibilização de arquivos pelo usuário, além de retirar arquivos é necessário que o usuário disponibilize-os aos demais que precisam também utilizá-los. É importante observar que as mega corporações estão apossando-se da Web 2.0 das formas mais variadas possíveis, vestindo-se de novas roupagens, a fim de produzir marketing utilizando os serviços trazidos pela visão crítica de seus usuários participantes ativos. As evoluções propiciadas pela Web 2.0 estão cada vez mais agregando formas eficientes para as mega corporações venderem seus produtos e segurarem seus clientes para a obtenção de lucro, silenciosamente. Em síntese, essas evoluções da Internet estão cada dia mais a serviço do capitalismo, com isto os consumidores precisam estar mais preparados e atentos ao integrarem-se neste contexto. Outro ponto a ser observado é que apesar da Web 2.0 estar relacionada com a democratização da produção e disseminação do conhecimento, alguns cuidados precisam ser tomados. O primeiro problema e tema da próxima seção, diz respeito à questão da exclusão digital, o qual está relacionado não somente ao acesso a estas tecnologias, mas principalmente as condições intelectuais de participação de uma inteligência coletiva, na compreensão de Pierre Levy (LÉVY, 2001). Propor uma produção e disponibilização de conhecimento na Web é atentar-se para os beneficiários direto e indiretos da mesma. Por outro lado, como vem sendo comentado, apesar da maioria das ferramentas da Web 2.0 estarem disponibilizadas ao público em geral, essas ferramentas muitas vezes pertencem à mega corporações que podem tornar detentoras e veiculadoras desses conhecimentos e seus derivados. Não é incomum encontrar na Web, por exemplo, discussões sobre o poder da Google, uma vez que muitas dessas ferramentas e serviços pertencem a essa empresa. Nesse sentido, torna-se necessário ter visão critica em perceber que a grande parte dos serviços e recursos disponíveis, à mega empresa está de posse da mesma utilizando para manter-se no mercado competidor que habita no ciberespaço e no mundo globalizado. A gratuidade normalmente cultivada pelas empresas principais da Web 2.0 consiste em disponibilizar ao usuário final, uma vez que são esses usuários que manterão os conteúdos dos blogs, Wikipédia. Em outra parte, essas empresas aproveitam para expandir a possibilidade de gerar lucro, através de anúncios patrocinados, disponibilização de recursos extras e outras vantagens de comercialização. É possível observar que manter profícua uma idéia na Web, como a do YouTube, Wikipédia e outras, significa obter apoio de grandes investidores. Um exemplo negativo pode ser citado o Flogbrasil55 que surgiu como alternativa brasileira ao Fotolog.net, antes de ser comprada pelo Terra, ganhou grande notoriedade pela quantidade de adesões diárias e pela qualidade do serviço prestado. À medida que não recebeu investimentos suficientes em sua infra-estrutura começou apresentar proble55 Flogbrasil:

www.flogbrasil.terra.com.br.


Aspectos Técnicos e Sociais da Internet

49

mas, como serviços lentos, fora do ar, etc. Devido à demora na resolução dos problemas, os usuários logicamente mudaram para outras empresas que prestam o mesmo serviço. Após sua perda de credibilidade pelos usuários, nem a compra da mesma pelo Terra trouxe-os de volta. Nesse sentido, os consumidores que transitam no ciberespaço estão muito exigentes, uma vez que conseguem obter informações positivas ou negativas sobre seus produtos e serviços, mediante comentários de pessoas que as conheceram ou experienciaram. Conforme mencionado, este módulo tem por objetivo abordar a Internet como meio de comunicação, a qual é responsável por alavancar mudanças estruturais em vários setores da sociedade. Ao mesmo tempo que é necessário compreender este cenário de evolução das novas tecnologias, também cabe refletir sobre os problemas subjacentes à presença desses novos artefatos digitais na sociedade. Por isto, a próxima seção aborda o tema da exclusão digital, uma vez que este tem sido um problema que permeia toda a sociedade e que de certa forma contraria o otimismo em relaçao à riqueza advinda da era da informação.

2.4

INTERNET E INCLUSÃO SOCIAL / DIGITAL

O termo exclusão refere-se à privação de alguma coisa, o que em contextos sociais induz a pensar em um grupo, sem acesso a algum bem produzido socialmente, ou impossibilitado de desfrutar seus direitos básicos. A condição de exclusão social está relacionada à existência de desigualdades em relação aos vários aspectos da sociedade: econômico, saúde, educação, habitacional, entre outros. O aumento da desigualdade social nos países do terceiro mundo é parte das preocupações de vários segmentos da sociedade, inclusive, as desigualdades de oportunidade de acesso ao ambiente digital, por exemplo, devem-se principalmente às desigualdades sociais. Atualmente, assiste-se a uma série de mudanças que a tecnologia e, principalmente, os recursos telemáticos proporcionam nas relações sociais, nas organizações e formas de trabalho, nas transações monetárias, na codificação de distintas manifestações culturais, na configuração urbanística das cidades, etc. Em todos esses fenômenos, a “mediação” tecnológica cumpre um protagonismo difícil de ser imaginado antes de sua criação. Cabe mencionar que essa importância tecnológica do mundo atual está aguçando, cada vez mais, as desigualdades sociais e a concentração de riqueza. Além disso, ela torna-se desigual o acesso ao desenvolvimento tecnológico, o que pode ser verificado na comparação do acesso à tecnologia no primeiro e no terceiro mundo. Uma definição mínima da terminologia exclusão digital passa pelo acesso a computador conectado à rede mundial e aos conhecimentos básicos para utilizá-lo. Cabe destacar que vários grupos já estão apropriando-se do termo exclusão digital, a fim de adequá-lo


50

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

melhor a seus interesses próprios, não sendo difícil que as empresas que concorrem dentro do ramo da tecnologia da informação buscam obter vantagens na negociação de seus produtos. Dessa forma, o contexto em que o termo exclusão social e digital estão sendo veiculados nos holofotes dos meios de comunicação carecem ser analisados criticamente. Em seu sentido mais genérico essa definição é fundamental e faz imprescindíveis uma ligeira análise sobre os dados do censo da Pesquisa Nacional por Amostra de Domicílios (PNAD Pesquisa Nacional por Amostra de Domicílio, 2005), já que parece ser uma estratégia para conhecer melhor esse fenômeno em contexto brasileiro. O item “microcomputador”, somente figurou na pesquisa do PNAD, como bem de consumo permanente nas residências, no ano de 2001. Nesse ano foi constatado que 12,6% dos domicílios tinham estes equipamentos, mas apenas 8,6% dos domicílios tinham acesso à internet, ou seja, apenas 68% dos domicílios com computadores estavam conectados à grande rede de computadores. Do ano 2001 a 2004, a taxa de crescimento no número de moradias com microcomputador foi de 29,68%; enquanto que a taxa de crescimento de número de domicílio com computador ligado à internet foi de 44,19%. No PNAD consta que em 2004 a porcentagem de domicílio com o equipamento alcançou 16,34%, em um contexto em que 12,4% possuem acesso à internet. Isto mostra uma forte conexão entre crescimento do acesso à Internet atrelado à aquisição do equipamento computador. De acordo com o relatório da ONU de 2007, o Brasil tem a décima maior população de internautas do mundo, com 22 milhões de pessoas acessando à rede, enquanto o planeta conta com 875,6 milhões de internautas. As estatísticas mostram entretanto que o país precisa batalhar muito para alcançar melhor posição na sociedade da informação, uma vez que constitui apenas 2,5% dos internautas do mundo. Os Estados Unidos alcançam o primeiro lugar no ranking de país com maior população conectada com 185 milhões (21,12%), enquanto a China vem em segundo lugar com 95 milhões (10,85%). A Europa é o terceiro continente em grau de inclusão, com 33,2%, já a América Latina aparece em quarto lugar, com 11,4% da população conectada. Esses dados demostram que a sociedade rica usa com intensidade as redes informacionais para comunicar-se, enquanto os países menos abastados economicamente e em desenvolvimento, como o Brasil, tem muito mais da metade da população distantes dos benefícios das redes informacionais. Esse inevitável crescimento desigual de acesso aos computadores e à Internet está acentuando as desigualdades na distribuição de renda. Na opinião de (CASTELLS, 2001) ser excluído da rede, é sofrer uma das formas mais danosas de exclusão em nossa economia e em nossa cultura. Entretanto, paralelo as discussões sobre o problema de exclusão digital, merece destacar que o Brasil é um país com sérios problemas de desigualdade social. Conforme dados da Pesquisa Nacional de Amostragem de Domicílio de 2004, 7,35% dos brasileiros são


Aspectos Técnicos e Sociais da Internet

51

analfabetos e 49,52% da população recebe até dois salários mínimos. Ao analisar essas porcentagens pode-se facilmente cogitar que a exclusão digital é um problema menor. Entretanto, ao mesmo tempo a exclusão digital consolida e eleva ainda mais as desigualdades sociais, como apontado em (SILVEIRA; CASSINO, 2003): Uma das questões derradeiras que se apresentam atualmente consiste em responder se em um contexto de globalização, de hegemonia neoliberal e de pensamento único seria possível combater a pobreza sem a utilização das tecnologias da informação.

No contexto da sociedade globalizada o domínio das tecnologias por seus cidadãos é crucial para o desenvolvimento das nações, não sendo possível em tempos atuais eliminar de forma eficiente a exclusão social, sem uma inclusão digital significativa de sua população. Na verdade, a relação de exclusão social e digital constitui-se em um círculo vicioso, em que uma é causa e conseqüência da outra. De forma que, sem acesso aos recursos econômicos e educacionais para utilizar-se dos benefícios do mundo digital, o indivíduo enfrenta dificuldades para inserir-se socialmente, e sem a inserção social ele encontra-se à margem da sociedade digital. Neste sentido, as propostas e ações de políticas públicas em defesa da inclusão digital, conforme (EISENBERG; CEPIK, 2002) precisam: levar em conta não apenas a preocupação de que todos tenham acesso às informações essenciais e às ferramentas de comunicação, mas também que possam usá-las a fim de obter uma maior participação na sociedade.

Como é de conhecimento as tecnologias informáticas possuem linguagens e códigos de acessos próprios, os quais devem ser conhecidos e dominados para seu uso adequado e eficiente. Porém, o domínio desses aparatos digitais não estão disponíveis no mesmo nível de acessibilidade. Desta forma, começa a seleção tecnológica dos indivíduos que conseguem dominar os chamados “passaportes” digitais de acesso ao ciberespaço, e por isso, têm todas as fontes de informações ao alcance, enquanto a maioria fica privada de interagir com elas. (LÉVY, 1995) referencia o acesso ao código digital como: não basta estar na frente de uma tela, munido de todas as interfaces amigáveis que se possa pensar, para superar uma situação de inferioridade. É preciso antes de mais nada estar em condições de participar ativamente dos processos de inteligência coletiva que representam o principal interesse do ciberespaço.

Ainda seguindo este raciocínio, Lévy ressalta que o problema do Brasil não é a falta de computadores, mas o analfabetismo. Em outras palavras, o autor quer destacar que para os


52

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

indivíduos fazerem parte da inteligência coletiva que se forma no ciberespaço, o principal obstáculo é a ausência de recursos culturais e intelectuais. Obviamente, essa visão não é consensual, bem como não existe um consenso nos objetivos e focos de projetos de inclusão digital. Dessa maneira, o trabalho com a inclusão digital pode ter como ponto de partida diversificados tipos de objetivos e focos, os quais irão distinguir como ocorrem o acesso as novas tecnologias. Em (SILVEIRA; CASSINO, 2003) é apontado três focos distintos nos discursos e nas propostas de inclusão, os quais favorecem a ampliação dos debates sobre a questão. O primeiro foco trabalha a inclusão digital voltada à ampliação da cidadania, no sentido de possibilitar as pessoas o direito de interagir e comunicar, através dos serviços da Internet. O próximo foco de trabalho no combate a exclusão digital busca inserir as camadas menos privilegiadas no mercado de trabalho na era da informação. No centro desse processo está a preocupação em capacitar os cidadãos para manusear as ferramentas tecnológicas. O terceiro foco é voltado a formação educacional geral no contexto das tecnologias digitais, no sentido de orientar jovens diante do dilúvio informacional da web, no fomento da inteligência coletiva, da inserção autônoma e produtiva dos jovens na sociedade da informação. Os autores continuam afirmando que os três focos não são conflitantes podendo inclusive estar interligados. Ainda, segundo (SILVEIRA; CASSINO, 2003), no início, os projetos de inclusão digital estavam voltados para o foco da profissionalização, enquanto atualmente começam a surgir com mais força os discursos voltados ao fomento da inteligência coletiva. Entretanto, não é difícil encontrar programas de inclusão digital voltados apenas ao acesso de computadores conectados à Internet, esquecendo-se que essa abordagem é inicial ao processo de inclusão, uma vez que a premissa maior é o domínio da linguagem dessas tecnologias. Assim dependendo dos elementos e instrumentos da era da informação que são colocados a disposição nos projetos de inclusão digital fica claro o que o executor desses projetos compreendem por inclusão digital. Segundo (SILVEIRA; CASSINO, 2003), a inclusão digital pode ser distinguida pelos vários tipos de acessos às NTICs, como: os que priorizam ensinar os primeiros passos no uso da rede mundial de computadores; ou que incentivam a navegação em (sites do governo, notícias, culturais, diversões, etc). Ainda têm projetos que possibilitam ao includente obter recursos como: caixa postal, espaço para comunicação e meios para armazenar informações; bem como ter condições para utilizar recursos que permitem a inserção em comunidades virtuais (chat, listas e fóruns de discussão, wikis, etc). Entre os focos para inclusão consta também que o includente deva dominar as técnicas de produção de conteúdo a ser disponível na Web. A justificativa deste foco é que produzir material para Web estimula o desenvolvimento da criatividade, lapida o senso crítico e


Aspectos Técnicos e Sociais da Internet

53

principalmente ultrapassa os limites da passividade diante dos meios de comunicação. Em alcance satisfatório da inclusão, os jovens seriam estimulados à construção de ferramentas e sistemas que possam estar servindo à comunidade. Porém, isto só será possível com ensino/aprendizagem de uso de linguagem de programação, software para criação de design, editoração de músicas, etc. Em contexto brasileiro, as estratégias e propostas de políticas públicas devem levar em consideração o quadro da situação de exclusão social e as desigualdades no acesso às novas tecnologias. Sendo assim, torna-se necessário o desenvolvimento de ações públicas que possibilitem grande parte da população obter, além do acesso livre à informação, orientação educacional que forme proficiência tecnológica e habilidade em obter conhecimento através deste meio. Levando em consideração esses objetivos para inclusão digital no Brasil, o seu foco de ação deve priorizar à ampliação da cidadania e à inserção da camada baixa no mercado de trabalho, profissionalizando e capacitando os cidadãos. É necessário então assegurar o acesso à informação às camadas socialmente excluídas como estratégia fundamental de inclusão social e uma das formas de resgate destes excluídos. Nesse contexto ressalta-se a possibilidade da utilização do software livre, que tem como uma de suas características interessantes para o trabalho com a inclusão digital, ser um ingrediente adequado a uma apropriação autônoma, colaborativa e democrática dos meios digitais. Em países do terceiro mundo, como por exemplo no Brasil, o software livre é uma importante tecnologia, uma vez que possui potencial para diminuir a dependência tecnológica do país, principalmente porque as características desse produto auxiliam uma inclusão digital, que privilegia: a democratização e a liberdade de expressão. A importância do software livre é facilmente compreendida num país em que a desigualdade de renda é muito grande. Conforme consta no (PNAD Pesquisa Nacional por Amostra de Domicílio, 2005), o Brasil apresenta o índice de GINI56 da distribuição de rendimento igual a 0,559. Em linhas gerais, o software livre57 é um produto desenvolvido a partir de uma forma diferenciada de trabalho, em que os programadores estão agregados em comunidades virtuais. Essas comunidades tem como princípio básico o compartilhamento do conhecimento e a solidariedade praticada pela inteligência coletiva que se forma no ciberespaço. A adoção do software livre pode contribuir para diminuir a “brecha digital” e também diminuir a 56 O

GINI expressa o grau de concentração do rendimento da população. O índice de GINI é expresso por um valor que varia de 0 (zero), situação de perfeita igualdade 1 (um), situação de desigualdade máxima. Em situações concretas é muito difícil que o índice atinja estes valores extremos, sendo que 0,5 já é considerado um valor representativo de fortes desigualdades. 57 O leitor pode encontrar maior aprofundamento sobre as questões que envolvem o software livre nos Capítulos 5 a 7 desse Módulo.


54

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

dependência tecnológica entre países em desenvolvimentos e desenvolvidos. Este é o caso do Brasil, por exemplo que tem potencial para criar soluções de programas similares aos que são importados. É extremamente viável utilizar amplamente software livre, ainda mais podendo contar com a vantagem de não estar enviando royalties para o exterior. Além disso, a economia obtida pela diminuição de pagamentos de licenças e envio de royalties poderia ser canalizado para investimentos em outras áreas. Apesar do software livre possuir características que despertam o interesse de várias áreas do conhecimento, é importante citar que o mesmo enfrenta diversos desafios para sua adoção. Esses desafios estão ligados à queda de paradigmas, tais como a propriedade intelectual e o trabalho formalmente organizado, constituiem-se como uma inovação radical para grande parte das organizações e dos indivíduos. É fundamental integrar a política de inclusão digital ao software livre, uma vez que apresenta-se como uma estratégia de viabilização e ampliação dessas políticas e projetos. Para aprofundar ainda mais esta justificativa de sucesso na estratégia de utilização de software livre nas políticas de inclusão digital (SILVEIRA; CASSINO, 2003) cabe considerar os seguintes argumentos: • Integração da política de inclusão digital, de informatização das escolas e as bibliotecas públicas e a adoção de tecnologia da informação como instrumento didáticopedagógico à estratégia de desenvolvimento tecnológico nacional. A escola pode ser uma via promissora de inclusão digital, e o ensino-aprendizagem ser enriquecido com ferramentas tecnológicas, colaborando para uma pedagogia inovadora, essencial nos dias atuais. Ainda pode ser que a presença desta tecnologia na educação esteja estimulando os alunos ao estudo a tornarem produtores de tecnologias. • Redução de custos para o estado – o uso de software livre proporciona uma economia, pelo fato de não ser necessário o pagamento de licenças de uso, podendo assim, aplicar os recursos economizados em outros projetos. Por exemplo, os recursos economizados poderiam ser disprendidos para treinamento e educação digital dos monitores e instrutores. • Por último, compreende-se que o dinheiro público não deva ser utilizado para sustentar o monopólido privado transnacional – além de não ser coerente o Estado pagar para seus professores, monitores treinar os usuários para uma determinada empresa. O autor defende a idéia de que o dinheiro público deva ser utilizado no incentivo a proliferação de linguagens e programas essenciais de domínio público58 . 58 Infelizmente,

o conceito de software livre e software de domínio público foram considerados erroneamente como equivalentes. No Capítulo 5 é detalhado a história e a filosofia do software livre caracterizando a sua real definição.


Aspectos Técnicos e Sociais da Internet

55

Em síntese, todos estes argumentos vêm ao encontro das necessidades de países em desenvolvimento, que conhecem a urgência da inclusão do cidadão na revolução digital, mas não dispõem de recursos abundantes. Além disso, o software livre emerge como alternativa aos produtos proprietários, o que evita a adesão compulsória deste último em programas de inclusão, ao mesmo tempo que a inclusão digital está relacionado a escolhas e a participação democrática de seus cidadãos.


56

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre


3 CIBERESPAÇO E CIBERCULTURA

Conforme pode ser facilmente observado, pela leitura de jornais e outras formas de mídia (escritas, faladas e visualizadas), a Internet proporcionou o surgimento de novos conceitos que se referem tanto ao aspecto técnico do uso do espaço virtual, como o significado em termos de organização social criados por esse espaço. O aparecimento desses novas conceitos também caracterizam várias mudanças no tratamento das informações, na forma em que são construídas, manipuladas e distribuídas, atingindo a sociedade de maneira inédita, resultando na extensão das redes de comunicação pessoal com implicações em todas as relações sociais, econômicas, educacionais e principalmente culturais. Entender o contexto de nascimento destes novos conceitos, bem como, as suas implicações na sociedade pode ser o melhor caminho para inserção crítica de cidadão na sociedade da informação, bem como compreender melhor a cibercultura subjacente a comunidade software livre.

3.1

ORIGEM E DEFINIÇÃO DO CIBERESPAÇO

Em “Neuromancer” (GIBSON, 1995), livro de ficção científica, escrito por William Gibson foi cunhado o termo ciberespaço (cyberspace). A palavra ciberespaço descende de cibernética, termo criado por Norbert Wiener para designar o novo campo de estudo que se preocupa com os processos de comunicação e controle entre os seres vivos e as máquinas, além de abranger os aspectos sociais. O romance de Gibson reflete um futuro próximo, quando a maioria dos computadores do mundo estariam interligados formando uma gigantesca rede. Através dessa rede, os seres humanos conectam-se no ciberespaço, ou seja, num espaço virtual visual, em que ocorreria algo semelhante a uma alucinação coletiva. Nessa rede de computadores, o real não é mais um ponto de referência e o artificial não é limitado por nenhuma presença física. Nada, nem pessoas estão livres de mudanças nesse local, em que até o corpo torna-se opcional, pois algumas pessoas são mentes que


58

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

existem apenas no ciberespaço. Aliás, na idéia do ciberespaço, tudo é opcional: o corpo, as experiências, a cultura, a realidade, além disso tudo pode estar à venda. Apesar das transformações que vêm ocorrendo no ciberespaço, desde a formulação de Gibson, a sua idéia é interessante porque referencia o ciber como aquilo que implica interatividade e controle. Com os poderosos recursos que fazem parte do ciberespaço, a ficção narrada em Neuromancer faz-se concreta, uma vez que o ciberespaço é o lugar onde a vida mediada pelo artificial é dominante e habilitada para interagir com a informação, e é tão poderosa que pode trazer imensas repercussões na atividade econômica, política, educacional e cultural da sociedade. No presente texto, o termo ciberespaço é definido como o local virtual onde as pessoas atualmente vêm desempenhando suas atividades de comunicação e informação, onde os seres virtuais estabelecem suas “interações”, expõem e adquirem conhecimentos, habilidades e informações adquiridas na vida cotidiana. Desta forma, quando usamos a Internet para efetuar operações bancárias, reservas de hotéis, mandar mensagens via e-mail, estamos “viajando” no ciberespaço. Por consequinte, o que está relacionado ao “ciber” implica em interatividade e controle, significando por outro lado que não engloba os meios de comunicação passivos, como o rádio, a TV e o cinema. O ciberespaço referencia-se àquilo que está on-line, o que é possível graças aos recursos tecnológicos fruto das telemáticas. Quando fala-se em espaço, comunidade ou escola virtuais, na realidade se fala de “escola”, “comunidade”, “espaço”, todos entre aspas, já que não podem ser compreendidos em seus sentidos clássicos da palavra, mas num sentido em que nos remete A simulações. Conforme (LÉVY, 2000): ciberespaço (que também chamarei de “rede”) é o novo meio de comunicação que surge da interconexão mundial dos computadores. O termo especifica não apenas a infra-estrutura material da comunicação digital, mas também o universo oceânico de informações que ela obriga, assim como os seres humanos que navegam e alimentam esse universo.

É importante destacar que a complexidade do funcionamento e dos acontecimentos que ocorrem no mundo virtual repercute em rápidas transformações produzidas em nossa sociedade pela dinâmica do ciberespaço. Com o avanço da Internet torna-se mais significativa a visão de que a informática não se resume a computadores, mas produz impactos visíveis nas vidas das pessoas. Inclusive, essas conseqüências provocadas pelo mundo virtual estão afetando tanto as pessoas que estão interconectadas pelos computadores, como aquelas que desconhecem-nas ou que consideram essas ferramentas como apenas auxiliares em suas atividades tradicionais.


Ciberespaço e Cibercultura

59

O ciberespaço torna disponível um dispositivo comunicacional original e diferenciado, no qual a comunicação pode ser estabelecida a nível de todos-para-todos. Isso significa que presencia-se o surgimento de um estilo de vida digital e ou virtual completamente distinto do padrão propiciado pelos dispositivos comunicativos que privilegiam a comunicação umpara-um, ou um-para-todos, como: o telefone, correio, TV, entre outros. Esse estilo de vida digital tem como marca diferenciadora a comunicação em modo textual de forma assíncrona, embora acenando em relação ao síncrono. As distâncias geográficas são cada vez menos significativas, já que pode-se ter a “presença virtual” em tempo real. Com os avanços dos dispositivos tecnológicos subjacentes ao ciberespaço, é possível perceber a enorme capacidade em termos de alcance e velocidade, os quais propiciam o desaparecimento das distâncias, a ponto de não ser significativa como referência. A natureza infinita do ciberespaço, a velocidade, a interatividade, a comunicação em vias de mão-dupla, não significa por si só a edificação de algo melhor ou pior que o mundo real. Caso o ciberespaço seja analisado criticamente, pode-se perceber que é habitado por pessoas que utilizam seus recursos de forma autoritária, conservadora e anti-democrática. Nem sempre os intelectuais que formam a massa crítica de uma sociedade são os que habitam o mundo do ciberespaço e dominam seus dispositivos. Pode-se dizer que ele é demasiadamente entregue aos técnicos, aos informatas e aos engenheiros, profissionais esses que geralmente advém de formação conservadora, autoritária ou mercantilista. Se um técnico de informática autoritário for idealizador de sistemas ou programas, a tendência é que estes construam um sistema anti-democrático, os quais podem limitar o imenso potencial do ciberespaço. Ou ainda, caso administrador de redes, que não possui formação e visão para compreender o amplo alcance da tecnologia e as implicações que essas propiciam nos vários aspectos da sociedade, poderá estar desempenhando inconscientemente uma função que exerce impactos negativos na vida das pessoas. Esta análise está em consonância com a posição de Pierry Levy (LÉVY, 2000) quando ele afirma que a tecnologia não é determinante, mas sim condicionante da cultura e da sociedade. Em outras palavras, o ciberespaço não é bom, nem ruim, isto depende dos contextos e das formas de seu uso. Ou seja, o ciberespaço é condicionado pelas concepções subjacentes de quem o utiliza, por isto não é um local neutro, uma vez que ele pode tanto abrir como fechar o espectro de possibilidades. Para esse autor, as estruturas comunicativas que adotam um padrão de rede demarcam mudanças inevitáveis, as quais oportunizam a expressão da inteligência humana. O processo comunicativo interativo como é o ciberespaço propicia a conexão das inteligências, concretizando a inteligência coletiva em que os potenciais dos indivíduos são maximizados na execução de suas habilidades. Esse autor destaca que essas características do mundo virtual são favoráveis para o desenvolvimento dos indivíduos, principalmente porque surge a possibilidade de trocas de


60

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

conhecimentos e a sua produção de forma coletiva, permitindo a formação de comunidades baseadas na inteligência. Por exemplo, é possível no ciberespaço que os indivíduos com distintos níveis intelectuais, sociais, políticos, econômicos e dispersões geográficas comuniquem e participem de comunidades que defendem interesses comuns. Ainda para este autor, o ciberespaço deverá causar uma série de mudanças políticas devido sua natureza e forma de funcionamento. O motivo principal é que a tecnologia não está curvada sob os domínios de um grupo hegemônico, transmitindo de um para milhões. O ciberespaço permite inverter esse processo possibilitando uma comunicação de todos para todos e ampliando enormemente as possibilidades de produção e divulgação de conhecimento de cada indivíduo, mesmo os não conectados. Pode-se fazer um paralelo com essa idéia de democratização política com a atuação das comunidades envolvidas com o software livre. Isso é possível, uma vez que não se pode imaginar a evolução do software livre ou sistema operacional Linux separados da própria evolução do ciberespaço e do fortalecimento de comunidades virtuais que constroem e defende o software livre. É importante relembrar que atualmente a Internet não está somente interligando universidades e centros de pesquisas, mas as organizações privadas vem conectando-se cada dia mais no ciberespaço. Nesse sentido, é possível dizer que o ciberespaço tende a refletir o mundo real. As organizações mercantis privadas tem procurado descobrir e aperfeiçoar formas de expor seus produtos nesse novo canal. Devido ao fator de desterritoriedade, ampliam-se as possibilidades de concorrência, diminuindo a importância de localização e tamanho da empresa para a venda de seus produtos. Um exemplo disso é o fortalecimento de várias empresas que operam unicamente no ciberespaço que trabalham com o mínimo possível de estoque e ocupam apenas escritório como espaço de trabalho. A Amazon.com constitui o exemplo clássico deste formato de empresa. Outro exemplo são as empresas que sobrevivem negociando principalmente produtos virtuais, como é o caso bem sucedido do Google. Atualmente, os internautas dispõem de uma grande variedade de opções para decidir onde adquirir produtos e serviços, cabendo destacar que tem aumentado significativamente o percentual de compras on-line com relação ao mercado tradicional de consumo. Em conseqüência, o consumidor internauta, cada vez mais exigente tem um grande poder de influenciar o mercado empresarial através do uso de dois mecanismos: 1. O consumo consciente e criterioso, que pode privilegiar determinadas empresas em detrimento de outras; 2. Impacto sensível na reputação das empresas, uma vez que o internauta passa a ter mais facilidade para entrar em contato com outros consumidores do produto ou serviço que está adquirindo.


Ciberespaço e Cibercultura

61

Pode-se deduzir do que já foi exposto que a dinâmica do ciberespaço acaba diluindo as ações de uma “classe hegemônica”, dominante. Isto deve-se pela dificuldade em executar manipulações em um espaço onde todos podem emitir mensagens, a ponto das informações apresentarem contradições, que podem ser confrontadas, já que não há um sistema de controle e regulamentação. Todos esses fenômenos relacionados ao ciberespaço, os quais estão intimamente associados às formas de comunicação estabelecidas por computadores, proporcionam a formação de uma cultura diferenciada, a cibercultura. Desta forma, os novos dispositivos informacionais, como os que permitem estabelecer comunicação de um-para-todos e todospara-todos, são os responsáveis pelas mudanças culturais das pessoas na sociedade. Por conseguinte, esta transforma a maneira das pessoas resolverem seus problemas, provocando modificações em seus estilos de vida.

3.2

A CIBERCULTURA

A definição do termo cibercultura tem como pano de fundo as novas tecnologias, como as relacionadas à comunicação digital, à realidade virtual e à cibernética. Desta forma, a cibercultura pode ser entendida dentro de um sentido amplo como as ações (de atitudes, de modos de pensamento e de valores) humanas que se desenvolvem juntamente com o crescimento do ciberespaço. Conforme (DERY, 1997), o espaço virtual, denominado ciberespaço, tem possibilitado emergir uma nova cultura, criada com base nas utopias da era da informática, mas desviadas pela criação artística para rumos surpreendentes de: magia, misticismo, simulação e comunidades virtuais que exemplificam as obras dessa cibercultura. Nessa linha de raciocínio, o espaço virtual transforma a natureza das relações dos homens e principalmente provoca mudanças radicais no imaginário humano. É preciso levar em consideração que o imaginário humano sempre esteve atrelado à tecnologia, cuja permeabilidade modifica os mecanismos de socialização de um dado grupo. Ampliando a discussão sobre a sua definição, pode-se dizer que a cibercultura é um arranjo tecnológico fomentado na informática e na cultura contemporânea, formando uma interface da cultura com as novas tecnologias da informação e da comunicação. Ela está ligada às diversas influências que essas tecnologias exercem sobre as formas de sociabilidades contemporâneas: no trabalho, na educação, no lazer, no comércio, formando diversos vetores. Tais vetores relacionam-se à informatização de processos sociais e econômicos, à virtualização de objetos e espaços, à interligação do mundo através da rede, ao hiper-


62

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

texto, à iconização da interface homem-máquina e à interatividade entre homem-máquina e homem-homem. Para (LEMOS, 2004), o conceito de cibercultura não se desvincula do processo tecnosocial da cultura atual em que as Novas Tecnologias de Informação e Comunicação - TICs transformam desde as práticas sociais, os modos de produção, o consumo de mídias, o lazer, a educação e outras práticas mais. Segundo esse autor esta transformação torna-se evidente, na medida em que se observa: • Uma sensação crescente de aceleração, instantaneidade na comunicação, as respostas chegam rapidamente, as informações estão disponíveis globalmente e de fácil localização; • A compressão do tempo e do espaço e a rapidez dos fluxos no ciberespaço implica que a distância, tal como é conhecida no mundo físico, decresce em importância até os limites da aniquilação. As conquistas tecnológicas não somente subjugam o espaço, mas acelera o ritmo de vida, acabam por encolher e fragmentar o próprio tempo.

Essa transformação por que passa a sociedade, ao mesmo tempo em que propicia a melhoria na qualidade de vida dos indivíduos, traz em seu bojo velhos problemas aumentados em sua complexidade. Ao longo deste módulo serão tratados alguns destes problemas que apresentam-se como: analfabetismo digital, mal uso do conhecimento, organização das movimentações populares, entre outros.

3.3

VIRTUAL X REAL

O desenvolvimento de várias técnicas e tecnologias faz com que atualmente se presencie um movimento geral de virtualização, que afeta não apenas a informação e a comunicação, mas além disso a própria realidade física dos indivíduos. Essas mudanças provocadas pela virtualização vêm propiciando o “teletrabalho”, a virtualização econômica (“banco virtual”, “dinheiro virtual”) e o aparecimento da inteligência coletiva. A virtualização vem penetrando continuamente em nossas vidas, constituindo “comunidades”, “empresas”, “escolas” virtuais, entre outros. Isso graças não somente aos processos de digitalização que têm largamente propiciado a possibilidade da onipresença no mundo contemporâneo. Essa penetração do virtual no cotidiano das pessoas ultrapassa a informatização, atingindo maior grau de complexidade à medida que surgem artefatos que integram elementos físicos e digitais.


Ciberespaço e Cibercultura

63

Nesse contexto, cabe buscar, como ponto de partida para o aprofundamento das questões que envolvem esse processo de virtualização, compreender os conceitos de: virtual, virtualização, presença e real. Porém é importante destacar que a compreensão imediata da explicação filosófica a respeito destes conceitos é bastante complexa. Há de considerar que a clarificação e absorção de conceitos quase sempre demandam tempo de maturação e de um trabalho de compreensão, desvelamento e busca de sentido. Deve haver consciência que para grande maioria dos profissionais da área de tecnologia da informação esse assunto ainda é pouco explorado, e que em qualquer momento poderá surgir a necessidade de rever conceitos talvez cristalizados e que, repentinamente, numa nova dinâmica, absorvem novos sentidos e significados. Assim, faz-se necessário refletir os termos que neste século tem freqüentemente aparecido nos bastidores do debate a respeito do que é o virtual, o real, o processo de virtualização e as mudanças que esses conceitos provocam na sociedade. Observa-se que o virtual é um termo muito utilizado atualmente para a designar diversos processos e organizações, principalmente envolvendo alta tecnologia, na sociedade moderna. Porém, esse termo não existe somente no mundo moderno, tornando difícil apontar quando começaram os processos que vem a constituir atos virtuais na sociedade. O que se sabe é que desde sua origem mesopotâmica, o texto escrito já representava um objeto virtual. Entretanto, a evolução e difusão dos artefatos digitais tornam esta questão muito mais complexa e ao mesmo tempo pertinente. O motivo, como apontado em (WEISSBERG, 1999), deve-se ao fato de que: “Ver o virtual, como nos propõe a engenharia informática da simulação, significa redefinir completamente as noções de imagens, de objeto, de espaço perceptivo” . Um exemplo claro dessa situação é o uso de mouse e ícones em sistemas computacionais. Com o mouse, um elemento físico, objetos virtuais são manipulados, como um ícone, por exemplo. Essa combinação de ações físicas e virtuais pode produzir resultados virtuais, como a alteração do atributo do documento, ou resultados físicos, como a impressão. As questões em torno da temática virtual/real foram profundamente analisadas nos estudos do francês Pierre Lévy, especificamente com sua obra “O que é o Virtual” (LÉVY, 2001). Esse autor começa desmistificando o uso corrente do termo virtual, o qual tem sido empregado com o seu significado corrente de ausência de existência. Nesse contexto, o termo real/realidade designa uma efetivação material, uma presença tangível, aquilo que existe, enquanto a palavra virtual é usada com a conotação daquilo que é irreal. Nesse uso corrente, os termos “virtual” e “real” não são empregados caracterizando essas duas dimensões em um mesmo tempo, representando uma oposição clara entre os dois conceitos. Apesar dessa significação possuir um grau de verdade, essa abordagem é bastante superficial e incompleta.


64

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Segundo Pierre Lévy, a palavra virtual origina-se do latim medieval virtualis, derivado de virtus que designa o que é potente, que tem força. O virtual pode ser definido, portanto, como um estágio de um processo permanente tanto que, para a filosofia escolástica, o virtual é o que existe em potência e não em ato. Nesse sentido, o virtual não se opõe ao que é real, mas remete sempre ao estado diferenciado em que o virtual tende a atualizarse, sem que seja no entanto passado à concretização efetiva, por isso, é algo que existe enquanto possibilidade. Lévy exemplifica o virtual utilizando o seguinte aforismo: “A árvore está virtualmente presente na semente. A árvore é, pois, o devir da semente, estando nesta, assim, já presente” (LÉVY, 2001). Continuando o pensamento desse autor, para desmistificar uma falsa oposição entre o real e virtual, ele reafirma que o virtual deve ser considerado como algo que existe em potência. E completa afirmando que o virtual é “complexo problemático, o nó de tendências, ou de forças que acompanha uma situação, um acontecimento, um objeto, uma entidade qualquer, e que, chama um processo de resolução, a atualização”. Desta forma, o virtual não se opõe ao real, mas sim ao atual. O real pode ser considerado algo já constituído, enquanto o virtual é um campo complexo de problematização, por isso coloca sempre alguma entidade suscetível de receber interpretações variadas. O virtual não é o possível, porque contém em si todas as características do real. O virtual não é uma possibilidade, não é uma latência: “é uma potência em si de ser”. Retomando o exemplo da árvore, Lévy coloca que o “problema da semente é fazer brotar a árvore.(...) Mesmo ela ’conhecendo’ a forma da árvore que se expandirá com suas folhas em cima dela (...)”. Lévy recorre a Gilles Deleuze para explicar que o possível, esse sim, se assemelha ao real, havendo entre ambos uma diferença “puramente lógica”. Ou seja, o possível é um real no limbo, que pode realizar-se (ou não), a qualquer tempo. Esse virtual é diferente do atual, uma vez que é o processo de resolução constante do nó de tendências que constitui a virtualidade e a solução de um dado problema, portanto a atualização. Dessa forma, a atualização é a solução de um problema que não está contido anteriormente no enunciado. Essa atualização é portanto também a produção de novas qualidades, de transformações das idéias, por fim é um verdadeiro devir que alimenta de volta o virtual. O seu exemplo por excelência é um programa de computador, no que diz respeito à sua interação com um operador humano. Nele, os resultados finais (as atualizações) não estão determinadas, pois serão resultados do processo de atualização, efetivada pela interação com a subjetividade do operador. Dos vários sentidos do virtual podemos identificar claramente aqueles que são construções sociais e tecnológicas, em sua maior parte possibilitados pelas redes de comunicação e dispositivos computacionais. Além disso, outras definições do virtual advém de concepção tradicional da virtualidade associada àquelas definições que encontram-se nos


Ciberespaço e Cibercultura

65

dicionários. Neste texto, a preocupação é distanciar do significado tradicional do virtual, ao mesmo tempo aproximar da compreensão do virtual que parece possibilitado pela tecnologia, inclusive com a sua peculiaridade que permite a desterritorização, o acontecimento em nenhum lugar determinado. Para isso, parece conveniente aproveitar das acepções filosófica a cerca do que é o virtual, a fim de compreender as novas entidades virtuais e as inúmeras possibilidades de ações humanas por elas permitidos. A complexidade na compreensão da relação entre os termos real e virtual trazido pela informática pode ser verificada, por meio de alguns exemplos. Um determinado sistema computacional permite por exemplo uma percepção diferenciada do real, esse é o caso de algumas ferramentas de visualização que alteram as imagens recebidas do mundo físico, propiciando maior nitidez, mesmo em condições adversas. O virtual torna-se nesse caso uma forma de percepção do real. Outro exemplo interessante é a simulação de fenômenos químicos, físicos e biológicos em ambiente computacional. Essa simulação não seria possível em ambiente real. Nesse caso, não se pretende a substituição do real pelo virtual, mas ajudar a lhe dar sentido ampliando a compreensão da realidade. Pode-se ter ainda alguns dispositivos em que se folheia a imagem de um livro, manuseando uma tela tátil, de forma similar a um livro de papel, um caso típico do prolongamento do real no virtual. Como último exemplo, pode ser verificada a injeção do real no virtual: com o desenvolvimento da realidade virtual, a virtualização não se trata apenas de simulação, mas de presença real no virtual possibilitado pela experiência com a imersão. Segundo as acepções de Lévy, a virtualização é um movimento de extrapolação do concreto observável, de desencaixe causa-efeito, de “simultaneização” das trocas e disponibilidades de informações e seus reflexos nas consciências humanas e entidades construídas. Esse autor, conduz a leitura para além dizendo que a virtualização é uma desconstrução da realidade em busca de uma teoria, constituindo assim uma metapotencialização do real. A virtualização teoriza a realidade em busca de novos sentidos, novas janelas, novos pontos de vistas. Em outras palavras, a virtualização deve ser compreendida enquanto dinâmica, como o movimento inverso da atualização; enquanto a virtualização problematiza e eleva à potência da entidade considerada - a atualização é a invenção de uma solução exigida por uma dada complexidade de problema. Nesse caso, a consistência maior da virtualidade é o campo da problematização a ser sempre repensada, em termos de hipóteses, de possibilidades, do devir. A atualização é a solução particular que acontece no aqui e no agora; ou seja, a solução assumida a cada momento pelo que potencialmente a entidade pode ser. A resolução do problema vem a constituir-se, portanto, em uma atualização.


66

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Cada vez mais presencia-se o surgimento de várias entidades virtuais, que fogem do sentido de organização tradicional: local fixo, rotina de empregados batendo pontos, horários definidos, entre outros. Nessas entidades virtuais, os empregados não estão fisicamente presentes. No caso dos teletrabalhos, há rupturas dos antigos conceitos de tempo e espaço, o que por conseguinte obriga a organização virtual sempre estar repensando, problematizando uma forma de organização também virtual. Logicamente, as empresas virtuais não possuem presença física, uma vez que elas não podem mais ser situadas precisamente, já que seus elementos são nômades, dispersos, desterritorizados geograficamente. Novamente, esse autor foge da caracterização vulgar do virtual destacando o aspecto de “não-presença”. O termo “não-presença” aparece sempre entre aspas, muitas vezes sendo atribuído como metáfora da virtualidade. Esse conceito pode ser concretamente averiguado quando deparamos novamente com as várias entidades virtuais, empresas virtuais que são nômades, que atualmente fazem parte de nosso contexto, como aquelas que não estão presentes, por não pertencerem a nenhum lugar ou situado geograficamente. Por conseguinte, isso não impede que as entidades virtuais existam no plano das ações concretas humanas, apesar dessas não terem um lugar de referência estável, e portanto serem desterritorizadas. Outro exemplo interessante da característica da “não-presença” ocorre em uma comunidade virtual, que mesmo sem ter um lugar de referência estável, a virtualização reinventa uma cultura nômade, em que um grupo de pessoas estão reunidos pelos mesmos núcleos de interesses, está repleta de objetivos, paixões, projetos e conflitos. Nessas comunidades virtuais, seus membros estão fazendo emergir meios de interações sociais muito dinâmicas. Em continuidade, aprofundando o conceito de desterritorialização, Lévy aborda sobre a “não-presença”, característica peculiar da virtualização, como sendo o desprendimento do aqui e agora. O autor faz um jogo de ambiguidade com os termos “presença”1 e “nãopresença”, sendo que o segundo termo, “não-presença”, induz nos aos vários questionamentos, fomentando algumas reflexões: • Seria o virtual um espaço de não-presença? • Há inexistência ou relatividade de lugares? • Seria o virtual, realmente, um despreendimento do aqui e agora? • Qual a diferença entre onipresença e não-presença? 1 O conceito de presença possue dois significados,

segundo o Dicionário de Filosofia (ABBAGNANO, 1991), diz que é a existência de um objeto em certo lugar; outro diz que é a existência de um objeto numa relação cognitiva imediata; assim, diz-se que um objeto está presente quando é visto ou é dado a qualquer forma de intuição ou de conhecimento imediato.


Ciberespaço e Cibercultura

67

• Qual o significado do “entre aspas” que Lévy inclui no termo “não-presença”?

Lévy afirma que o ponto de reflexão recai sobre os principais operadores (das tecnociências, das finanças, das telecomunicações e dos processos de digitalização ...) responsáveis pela desterritorização que modificam nossas relações com o espaço-tempo precisos, favorecendo, com isso, a formação dos coletivos virtualizados e virtualizantes desse novo milênio. Simultaneamente, Levy conduz a pensar que essa “não-presença” tem o sentido ambíguo de onipresença e, por decorrência, ao conceito de velocidade, dado que o objeto não é estático - ele se desloca na espacialidade numa busca de percorrer e reduzir as distâncias. Fala-se na atualidade com freqüência em objetos desterritorizados e assincrônicos simultaneamente. Um exemplo são os grupos de aprendizagem colaborativa no ciberespaço, onde a unidade “tempo” é meramente uma simples referência de registro. Também observase na atualidade uma dinâmica no sentido de espaço e tempo; como se fossem conceitos em processos. Há uma variabilidade dos espaços e das temporalidades, decorrência da interconectividade, da interligação de pessoas em redes. Mas cabe observar que, para as pessoas que não estão conectadas nessas redes, as distâncias e os tempos continuam exatamente os mesmos. Desta forma surgem questionamentos sobre quais as implicações sociais são desencadeadas nesta relação de distância e tempo, uma vez que esta relação não é alterada pela virtualização para uma parte significativa da sociedade.

3.4

HIPERTEXTO, HIPERMÍDIA E MULTIMÍDIA

Conforme defendido em (LÉVY, 1995), por hipertexto entende-se um conjunto de nós ligados por conexões. Esses nós podem ser palavras, páginas, imagens, gráficos, sons entre outros, que constituem o próprio hipertexto. Com os recursos de hipertexto e hipermídia, as informações não estão necessariamente dispostas linearmente, mas por interconexões de nós, levando a outros conceitos e idéias, abrindo as possibilidades de navegações entre os vários conceitos diferentes. Isto dá forma a uma rede de informações rizomáticas e possibilitam vinculações entre documentos ampliando as informações. À medida que existe a possibilidade de um assunto indexar outros formando nós de links, o nível de complexidade do tema abordado cresce. Porém, a fim de ampliar a compreensão sobre o conceito do hipertexto faz-se necessário conhecer seu percurso histórico. Na década de 60, o termo hipertexto foi cunhado por Theodore Nelson para exprimir a idéia de escrita/leitura não linear das comunicações. A


68

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

idéia desse autor era criar o Xanadu2 , uma imensa rede acessível em tempo real contendo todos os tesouros literários e científicos do mundo, semelhante a Biblioteca de Alexandria. Xanadu ajudaria as pessoas a escreverem, interconetarem-se, interagirem entre si, entre outros. Dessa forma, Vannevar Bush, Theodore Nelson e Douglas Engelbart3 desenvolveram as idéias pioneiras de hipertexto dentro de uma visão de amplitude imensa. Os dispositivos de informática, limitados pela capacidade de seus servidores de banco de dados, eram impotentes para gerir a grande quantidade de informações que os projetos Xanadu ou Memex almejavam. Ambos pressupunham um minucioso trabalho de organização, seleção, contextualização, acompanhamento e de orientação ao usuário. Ambos Engelbart e Nelson vêem o hipertexto como um melhoramento no processo de comunicação, por oferecer caminhos alternativos de percepção e associação da informação. Nos meios digitais atuais, o hipertexto, assim como a hipermídia, estão presentes na maioria dos artefatos tecnológicos, sendo que o hipertexto não exclui a dimensão sonora e visual. Todas essas dimensões de representações do real podem adquirir um formato de quase-texto e em muitos casos um hipertexto pode ser constituído por hipermídia e vice-versa. A digitalização da informação tem propiciado transitar entre os computadores mensagens em vários formatos. Esses possibilitam cada vez mais ao usuário estabelecer uma relação interativa e diferenciada com outras pessoas. Segundo (LÉVY, 1995), a idéia do hipertexto foi primeiramente enunciada em 1945, por Vannevar Bush, quando esse escreveu o artigo “As We May Think”4 (BUSH, 1945). Nesse artigo, o autor propunha a construção do Memex, que seria um dispositivo, parecido com uma estante, para armazenar conteúdo de forma conectada. Com esta conexão entre os documentos, Bush queria possibilitar a consulta aos mesmos, de forma não-linear e não de acordo com os sistemas de indexações da época, em ordem alfabética, hierárquica ou numérica. Na busca de aperfeiçoar o Memex, Bush criou as trilhas associativas, que permitiam que os registros fossem consultados da mesma forma que o pensamento humano, ou seja, através de associações. O projeto de Bush também permitia que os donos de um Memex gravassem suas trilhas e assim fossem trocando uns com os outros, para saberem por onde o outro passou e assim fazer novos caminhos, como numa espécie de escrita coletiva. Bush chamou a atenção para o fato de que as informações escritas estão classificadas por itens sobre uma ordenação lógica hierárquica de classes, subclasses, entre outras. Dessa observação, esse autor afirma que a mente humana não funciona conforme essa organização lógica que a comunidade científica privilegia, uma vez em que o pensamento 2 Xanadu

encontra sua forma atual no site http://www.xanadu.net. - famoso pelo desenolvimento do mouse no Centro de Pesquisa de Stanford (SRI) em 1963. 4 Artigo na íntegra: http://www.theatlantic.com/doc/194507/bush. 3 Engelbart


Ciberespaço e Cibercultura

69

humano ocorre por associações de conceitos, por conexões de idéias e experiências. O que significa que a mente humana passa de uma representação à outra fazendo um percurso mais complexo do que os bancos de dados e as escritas utilizadas no ano de 1945 (BUSH, 1945). A partir dessas constatações, Bush propõe inspirar-se no processo em que a inteligência funciona por associações não-lineares, por intuições, muito imediatas, propondo criar sistemas de ligações independentes de qualquer classificação hierárquica entre as informações. Nessa estrutura, para uma dada conexão, cada vez que determinado item fosse visualizado, todos os outros ligados a ele poderiam ser instantaneamente recuperados, através de ações simplificadas, como o toque de um botão. Nesse momento, o dispositivo Memex surge com o objetivo de fazer a classificação e a seleção por associação, as ligações são criadas independentes de quaisquer classificações hierárquicas entre as informações, com funcionamentos mais ou menos semelhantes às idéias acima defendidas por Vannevar Bush. Bem mais tarde, em 1989, Tim Berners-Lee cria a Web (World Wide Web) que é constituída por um grande conjunto de links que formam inúmeras conexões hipertextuais, o qual é considerada por muitos como um exemplo clássico de hipertexto. Na Web, as informações não estão dispostas mediante sistema fechado de banco de dados de links. De acordo com a sua estrutura é possível construir informações fazendo referências hipertextuais citando vários documentos, o que permitem o crescimento constante da Web. Inclusive, essa forma aberta constituída pela Web não traz garantia de que os hiperdocumentos conectados por nós estejam todos acessíveis. Além disso, a arquitetura da Web dá liberdade para que as pessoas referenciem textos sem que consultem as permissões de referências aos produtores originais desses documentos: as liberdades que constituem a Web permitem a sua amplitude de escalabilidade sem precedentes. Porém, Ted Nelson critica a Web, afirmando que a estrutura de suas páginas não configuram uma rede hipertextual, considerando-a como um diretório decorativo. Na realidade, Nelson chama como hipertexto algo ligado à idéia de links bidirecionais, ao contrário da unidirecionalidade que são muito encontradas nas páginas da Internet. Ele considera que os links deveriam ir em ambos caminhos, levar e trazer de volta os usuários, bem como ir e voltar, argumentando que estas possibilidades só são possíveis mediante o ícone voltar do navegador. As páginas do documento do sistema que Nelson projetou deveriam manter conectados entre si mesmo sofrendo freqüentes modificações. Ainda deveria permitir a construção de forma coletiva pelos leitores e autores desses documentos. Assim, a crítica de Nelson resume-se no argumento do problema da limitação que a maior parte das páginas Web, permite ao usuário percorrer caminhos pré-estabelecidos, não lhe sendo possível incluir novos


70

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

destinos na trilha do hipertexto, mas somente a escolha entre opções que lhes são oferecidas pelo programador da página. Nelson argumenta que está faltando à Web constituirse em um espaço de construção de conhecimento efetivamente coletivo, com mecanismo hipertextual em que programadores e usuários possam interagir completamente entre si, trocando informações, reproduzindo e reconstruindo os documentos e traçando novos caminhos por entre uma infinita rede de dados. Dessa maneira, um hipertexto pode ser considerado como uma construção multimídia interativa que possui características multidimensionais, dinâmicas. Um hipertexto pode ser constituído por esquemas, diagramas e gráficos, os quais formam sua linguagem escrita para além de algo estático e linear. Segundo Pierre Lévy, todos esses recursos dão ao hipertexto vias de acesso e instrumentos de orientação em um domínio do conhecimento sob a forma de diagramas, de redes ou de mapas conceituais manipuláveis e dinâmicos. Nesse sentido, o hipertexto quando bem constituído pode favorecer um domínio mais rápido e mais fácil de uma determinada matéria do que através de recurso audiovisual ou simplesmente do suporte impresso habitual. Por outro lado, no livro Tecnologias da Inteligência (LÉVY, 1995), o autor afirma que ainda que milhares de hipertextos tenham sido elaborados, após as primeiras visões de Bush e Nelson até aquele momento, não havia um que concretizasse o que ambos idealizaram como hipertexto e destacam três razões para isto: • Não se sabia ainda programar bancos de dados acima de certa ordem de grandeza; • O preço de uma tecnologia que indexasse, digitalizasse as informações de diferentes suportes, seria muito elevado • O dispêndio de um minucioso trabalho de organização, seleção, contextualização, de acompanhamento e orientação ao usuário, já que na época tudo o que era visto como interativo, ainda estava por ser inventado. Há que se considerar que estas dificuldades no início da década de 90 eram bem reais, ao contrário de hoje. Por sua vez, é compreensível a colocação de exemplos, como uma navegação em um CD-ROM , destacada por Lévy, as possibilidades de navegação nãolinear, como algo essencial de um hipertexto, uma vez que na elaboração deste livro este meio era considerado um dos mais interativos. Em livro mais recente, O que é o Virtual (LÉVY, 2001), o autor continua os estudos sobre hipertexto mencionando com entusiasmo que: o suporte digital permite novos tipos de leituras (e de escritas) coletivas. Um continuum variado se estende assim entre a leitura individual de um texto preciso e a navegação em vastas redes digitais no interior das quais um grande número de


Ciberespaço e Cibercultura

71

pessoas anota, aumenta, conecta os textos uns aos outros por meio de ligações hipertextuais.

Ao afirmar isto, o autor considera que toda a leitura no computador é uma edição, uma vez que o hipertexto eletrônico amplia potencialmente a liberdade de movimento do usuário, por permitir-lhe escolher dentre os vários caminhos possíveis neste suporte. O autor também destaca a fusão entre os papéis de autor e leitor pelo fato do usuário poder construir seu próprio caminho, ressaltando que o usuário exerce o papel de autor ao recriar o texto conforme seleciona o caminho de leitura do hipertexto, através de seus links. Apesar de ser possível concordar com Pierre Lévy é necessário destacar, entretanto, que esse poder de autor é extremamente limitado dentro da Web padrão, o exemplo mais concreto de hipertexto. Como se sabe qualquer usuário da Web não tem como alterar os conteúdos da maioria das páginas e inserir e/ou exclui-los, restando-lhe apenas a opção para percorrer o caminho. Um fenômeno mais recente que tem provocado uma participação maior do usuário e, por conseguinte de sua autoria, é a Web 2.0, que foi discutida na Subseção 2.3.9 desse texto. Um aspecto importante a ser observado no documento hipertextual, como apoio pedagógico, diz respeito, ao processo da escrita e da leitura que se dá mediante trocas de papéis entre emissor e receptor. Conforme (LÉVY, 1995), a pessoa que participa da estruturação de um documento hipertextual já é um leitor; enquanto que a pessoa que atualiza um percurso, ou manifesta determinado aspecto da reserva documental, contribui para a redação - num processo de escrita interminável. Por conseguinte, quando o leitor de documentos hipertextuais faz seu próprio percurso, com os cortes e remissões, ele acaba por criar um sentido original, incorporando uma outra estrutura ou texto. Na prática, quando alguém usa os recursos da hipertextualidade, ele pode ir e vir, percorrer o texto, fazendo seu próprios recortes o que originará um texto novo, dele, produzido a partir de sua leitura e vivências e não necessariamente a partir da visão do autor. Esta liberdade de ação foi potencializada a partir do uso do computador e seus recursos. Porém, alguns livros como: a “Biblia Sagrada”, “O Jogo da Amarelinha”, entre outros, oferecem diversas possibilidades de leituras. No caso de “O Jogo da Amarelinha”, de Júlio Cortázar, há possibilidade do leitor criar pelo menos três tipos diferentes de histórias, o que poderia ser considerado uma tentativa de hipertextualidade a partir de um livro impresso. Um documento hipertextual bem elaborado, com ricas estruturas de conexões, acaba por dar opções ao leitor para construir, dinamicamente, um outro documento rico em significação, uma vez que, através de cliques com o mouse, o leitor constrói o percurso desejado e elabora uma rede semântica conforme seus interesses e apreensões de experiências anteriores. Pode-se dizer que, nesse pormenor de conceber um documento hipertextual ou


72

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

outro texto escrito que seja, considerado como sendo uma construção montada, não há que descartar também que essa montagem é obtida a partir da sincretização da matéria-prima oferecida por outros discursos do presente e do passado. Essa mensagem montada cita explícita ou implicitamente vários outros autores e interpretações dos mesmos. Na concepção do “texto” em Bakhtin (ver, por exemplo, (LOPES, 1993)), o texto é também um hipertexto. Dessa forma, o texto escrito de qualquer natureza mantém um diálogo polissêmico com o leitor, uma vez que esse leitor possui várias vozes interpretativas desse texto. Então, percebe-se que quem monta uma estrutura hipertextual é também um leitor potencial, com suas interpretações próprias. Do outro lado, o navegador que percorre o percurso dessa montagem pré-estabelecida é habitado por vozes interpretativas e produz outro texto mais interativo do que antes, quando somente lia determinado texto de forma seqüêncial (impresso). Ou seja, o documento hipertextual dá concretude de uma elaboração de escrita e leitura mais dinâmica e comunicativa. Além disso, a característica da interatividade no hipertexto possibilita ao usuário estabelecer comunicação direta entre os pares do produtor hipertextual e leitor através da comunicação entre um-para-todos, ou todos-para-um, senão todos-para-todos, divergindo dos suportes de material impresso umpara-muitos. Em (SILVA, 2001) é delineado o papel que vem exercendo o novo espectador, ou seja aquele usuário que lida com as mídias digitais, assinalando que:

“Com o hipertexto ele aprende a “nova gramática dos meios audiovisuais” - a multimídia, a hipermídia. Aprende novos parâmetros de leitura e de conhecimento. A leitura é “de tipo cinéstésico, atenta ao mesmo tempo ao que é dito, ao que é mostrado nos vários quadros simultâneos e ao que é comentado por meio dos inúmeros textos que correm paralelamente sobre as imagens”. E o conhecimento deixa de situar-se no plano da emissão do saber, para emergir da atividade conexional... Deixa, portanto, de submeter-se ao modelo reducionista e disjuntivo do pensamento simplificador que separa emissão e recepção, e abre-se à perpectiva do pensamento complexo. O pensamento que “trabalha com um número extremamente elevado de interações, de interferências que se dão entre as unidades do sistema considerado e também com as incertezas, as ambigüidades, as indeterminações, as interferências de fatores aleatórios e o papel modelador do acaso”. Eis a perspectiva comunicacional que se abre para o novo espectador!”

Então, pode-se dizer que o documento hipertextual, determina uma estrutura diferenciada: das informações propiciando a quebra de uma estrutura linear, a qual apresenta e elabora textos bem limitados em seu uso. Por último, a partir do delineamento sobre hipertexto e das reflexões sobre o mesmo, o internauta pode usufruir de forma diferenciada dessas novas roupagens para construção significativa de determinado assunto.


Ciberespaço e Cibercultura

73

Conforme já foi dito, a hipermídia também pode formar um hipertexto. Para fins didáticos segue-se neste texto uma tentativa de definir o que é hipermídia e suas nuances quanto uma tecnologia. Em (HOUAISS, 2001), o termo hipermídia é definido como sendo: “sistema de registro e exibição de informações informatizadas por meio de computador, que permite acesso a determinados documentos com texto, imagens estáticas ou em movimento, sons, software, a partir de links que acionam outros documentos e assim sucessivamente”.

Para Marcos Silva em (SILVA, 2001): “Há a multimídia “linear” que “apenas conta histórias” e a multimídia definida como composição de “sistemas muito abertos que dão oportunidade de o usuário ter sua própria experiência de conteúdo, única”. Esta distinção feita por D. Kapelian (cit., cap. I) não menciona a hipermídia, mas há este termo para designar especificamente a segunda modalidade de multimídia. A primeira modalidade define-se como qualquer combinação de texto, arte gráfica, som, animação e vídeo monitorada por computador e exposta aos sentidos do receptor. Este, usuário dessa multimídia “linear”, conta com opções de escolha que ele pode combinar. (...) “A hipermídia conta com as opções de escolha da multimídia “linear” mas nesse caso o usuário dispõe de uma estrutura hipertextual pela qual pode mover-se com autonomia não só para combinar os dados, mas para alterá-los, para criar novos dados e para criar novas rotas de navegação. Na hipermídia o uso conta com elementos hiper-linkados num sistema rizomático com múltiplas entradas e saídas, no qual pode mover-se com muita liberdade. Ele guia-se por meio de sinais e dispõe de palavras e conteúdos que, ao ser acionados, apresentam ligações múltiplas que conduzem a outras palavras e conteúdos configurando um mapa de caminhos intrincados e labirínticos por onde o usuário pode navegar e, neste ambiente, permutar e potencializar.”

Com essa citação pretende-se chamar a atenção para o fato de que alguns autores não diferenciam o termo hipermídia do termo multimídia, principalmente quando esta apresentase sob o conceito de hiperdocumentos, conforme discutido abaixo nesta seção. Outros autores, como (SILVA, 2001), usam o termo hipermídia para designar documentos multimodais interativos em que há oportunidade do usuário estabelecer uma experiência única e individual. Para Hamilton Chaiben, em (CHAIBEN, 2002), a distinção entre os termos hipertexto e hipermídia torna-se cada vez mais obscura devido às crescentes facilidades de comunicação através das mais variadas tecnologias. Alguns autores preferem conceituar hipermídia como o resultado da integração de hipertexto com multimídia, distinguindo portanto


74

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

as duas tecnologias. Desta forma, esse autor prefere distinguir os dois termos, afirmando que o termo hipermídia, subentendido pela definição tradicional, é caracterizado como uma maior abrangência com relação às maneiras de expressar o conhecimento: ele pode ser considerado simplesmente uma reavaliação do termo original hipertexto em conseqüência de uma evidente evolução tecnológica. Material impresso, como um livro, tem sido tradicionalmente o principal meio de armazenamento do conhecimento. Nesse tipo de meio, as informações estão geralmente ordenadas em páginas seqüenciais para serem lidas de modo linear. Ao contrário do suporte de informação impresso, os sistemas hipermídia podem representar uma coleção de arquivos interconectados em uma rede. E os usuários são livres para progredir, ou navegar, através do conhecimento do sistema utilizando vários caminhos distintos e não seqüenciais, cujas ligações foram de alguma maneira estabelecidas pelo projetista. Seguindo essa idéia, o ambiente hipermídia oferece novas possibilidades de acesso às grandes e complexas fontes de informações. Hamilton Chaiben, em (CHAIBEN, 2002), afirma que a vantagem essencial do documento não-linear é a capacidade de organizar objetos de diversas maneiras, dependendo das diferentes visões e demandas. Para ele, o modelo hipermídia incentiva o autor a criar referências e modularizar suas idéias, embora ele seja obrigado a tomar decisões difíceis sobre qual a melhor maneira de particionar adequadamente as informações. Em (CONKLIN, 1987) são destacadas uma série de vantagens de um modelo hipermídia, podendo ser citadas:

Facilidade de seguir as ligações: A interface com o usuário é uma das características marcantes em sistemas hipermídia. O ambiente gráfico proporciona facilidade de navegação em grandes espaços de informação. Estruturação da informação: Tanto as organizações hierárquicas como não hierárquicas, podem ser aplicadas sobre informações não estruturadas. Até mesmo hierarquias múltiplas podem organizar o mesmo material. Customização de documentos: Os segmentos podem ser estruturados de várias maneiras permitindo que o mesmo documento sirva para múltiplas funções. Modularidade da informação: Uma vez que partes do mesmo documento podem ser referenciadas de vários lugares, as idéias podem ser expressas com pouca sobreposição ou duplicação. Consistência da informação: As referências estão embutidas no documento e mesmo que este seja movido pelo autor, as informações das ligações continuam dando acesso direto àquelas referências.


Ciberespaço e Cibercultura

75

Facilidade de criar novas referências: Os usuários podem simplesmente fazer comentários ou anotações em um documento, enquanto as demais referências continuam inalteradas. Colaboração: Vários autores podem cooperar na criação de um mesmo documento ou simplesmente adicionar e compartilhar comentários.

Cabe destacar porém que os sistemas de informação hipertextual e hipermídia possuem alguns problemas clássicos, freqüentemente citados, com relação à sua utilização. Dentre esses, pode ser destacado a desorientação: esse suporte informativo, possibilita que o usuário sinta-se “perdido no hiperespaço”. Às vezes, o usuário não se sente seguro de onde ele está em relação a outras partes da rede, ficando com dificuldade para encontrar alguma informação que tinha certeza que estava em algum lugar no sistema. Esta tendência aumenta consideravelmente com o tamanho e a complexidade do hipertexto. Nesse sentido, torna-se preciso a construção de estruturas conceituais que podem ser eficazmente representadas pela exposição gráfica, e o problema da desorientação ser corrigido através de algum tipo de mapa. Por outro lado, a necessidade de acompanhar as ligações (links) pode acarretar sobrecarga cognitiva adicional, podendo significar que alguma capacidade de processamento de informação é desviada para a tarefa de tomada de decisão, que não deixa de ser a essência do trabalho com hipertexto. De outro modo, esta capacidade poderia ser concentrada no material sendo pesquisado ou estudado. Esta sobrecarga está presente até mesmo no processo de leitura de um documento hipertexto. Uma outra tecnologia que faz parte da nova roupagem das comunicações digitais constituem a multimídia. Segundo o dicionário Houaiss da Língua Portuguesa, (HOUAISS, 2001) “multimídia é a técnica para apresentação de informações que recorre simultaneamente a diversos meios de comunicação, mesclando textos, sons, imagens fixas e animadas.”. Etimologicamente, multimídia significa “múltiplos meios”, mas, conforme cada autor há definições diferenciadas dessa terminologia. Antes de definir a variedade de conceitos de multimídia, faz-se necessário averiguar o que vem a ser mídia. Mídia pode ser considerado o suporte ou veículo de transporte da mensagem, como: rádio, a televisão, o impresso, o cinema, a Internet, entre outros. Todos esses suportes veiculadores de mensagens são as mídias. Vários autores conceituam a multimídia de diferentes formas. Para (LUIS, 2002), “multimídia é o resultado da integração ou convergência de texto, gráficos (animação), áudio (som) e vídeo”. Em (VAUGHAN, 1999), multimídia é qualquer combinação de texto, arte gráfica, som, animação e vídeo que chegam pelo computador ou outros meios eletrônicos. Já Nacho B. Martín, em (BUSTOS,


76

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

1998), diz: multimídia, por definição é a conjunção de distintos meios, tais como: textos, imagens, vídeos, sons, animações, etc. Em todos os conceitos de multimídia, delineado, pelos vários autores supra citados, a multimídia é caracterizada como um conjunto de linguagens (textual, visual e sonoro). Porém em (LÉVY, 2000), o termo é tratado com maior complexidade e incorpora um novo elemento: documentos multimodais interativos de suporte digital. No entanto, esse autor não se restringe a essa significação, apresentando toda uma polêmica em cima desse termo. Em (LÉVY, 2000), são apresentados vários significados para o termo “multimídia”: Emprega diversos suportes ou diversos veículos de comunicação: segundo esse autor, essa significação é muito pouco utilizada atualmente. Observe que, de acordo com esse significado, o circo, por exemplo, é “multimídia”, pois utiliza-se de vários tipos de linguagem (cinestésico, corporal, sonoro, etc). Conforme Levy, “(...) Hoje, a palavra refere-se geralmente a duas tendências principais dos sistemas de comunicação contemporâneos: a multimodalidade e a integração digital”. Hiperdocumentos: conforme Levy, ao utilizarmos o termo “multimídia” para designar os CD-ROMs, estamos cometendo um equivoco. “(...) Se o sentido deve ser ’multimodal’, o termo não descreve suficientemente bem a especificidade deste novo suporte, já que uma enciclopédia, ou alguns livros manipuláveis para crianças, ou brochuras ilustradas acompanhadas por fitas cassete (tais como: os métodos de ensino de línguas) já são multimodais (texto, imagem, som, tato), ou mesmo multimídia (...)”. Assim, para esse autor os CD-ROMs (ou mídias similares) são “documentos multimodais interativos de suporte digital” ou, de forma breve, “hiperdocumentos” . Movimento geral de digitalização: esse significado “(...) diz respeito, de forma mais imediata ou mais distante, às diferentes mídias que são a informática (por definição), o telefone (em andamento), os discos musicais (já feito), a edição (parcialmente realizado com os CD-ROMs e CD interativos (...)”. Assim um CD-ROM, por exemplo, designa “um horizonte de unimídia multimodal, ou seja, a constituição progressiva de uma estrutura de comunicação integrada, digital e interativa”. Emergência de uma nova mídia: quando empregada nesse sentido, Levy considera seu uso inadequado, “(...) já que chama atenção sobre as formas de representação (textos, imagens, sons etc.) ou de suportes, enquanto a novidade principal se encontra nos dispositivos de comunicação interativos e comunitários ou, em outras palavras, em um modo de relação entre as pessoas, em uma certa qualidade de laço social”. Dessa forma, ampliando o conceito de multimídia para além dos suportes digitais, podese concluir que uma simples caixinha de música que toca pode ser considerada uma multimídia, uma vez que se tem a integração da linguagem visual e sonora. Um programa


Ciberespaço e Cibercultura

77

televisivo é um programa multimídia por suportar imagens, sons e textos. Aumentando a complexidade, qualquer software ou programa informático também é multimídia já que suportam vários tipos de linguagens. A diferença básica entre essas mídias reside no fato que as aplicações informáticas, em geral, permitem as pessoas usuárias ter um controle maior ou menor de ordem e de tempo em que queira receber a informação que lhe ofereça. Pode-se dizer que as aplicações multimídias não possuem o mesmo nível de interatividade. Em sua maioria, esse nível de interação vem determinado com o grau em que se estabelece uma comunicação bidirecional entre o usuário e a máquina. Em um programa de televisão, por exemplo, somente é permitido às pessoas exercerem a função de espectadoras, elas têm apenas a permissão de trocar de canais. A maneira flexível em que as informações podem ser estruturadas, com seus diversos suportes mediáticos de sons, imagens fixas em movimentos, entre outros, têm propiciado uma mudança radical na concepção que até então se tinha formulado sobre a multimídia. Inclusive, é de se esperar, cada vez mais, que o conceito de multimídia incorpore um certo nível de interação. 3.4.1

Comunidades Virtuais

Antes da popularização da Internet, uma comunidade era definida como um grupo de pessoas que tinham interesses comuns e agrupavam-se a fim de alcançá-los. Essas comunidades possuíam um ponto de referência em um local geográfico determinado, como uma cidade, onde se vivia, ou um bairro em que residia, ou mesmo uma igreja em que participava. Para fazer parte de cada uma dessas comunidades, os participantes deveriam aderir às normas desse grupo. Porém, a partir do momento que uma comunidade não é mais um conceito dependente de um lugar, torna-se necessário refletir a respeito do que é e o que não é comunidade. Conforme afirma (PALLOFF; PRATT, 2002), no momento em que o ciberespaço se popularizou, as comunidades diversificaram-se e constituiram-se em atributos dos mais variados, com isto tornou-se difícil determinar o que significa exatamente a palavra comunidade. Sendo assim, definir os limites do conceito de comunidade, no contexto do ciberespaço, implica pensar a aplicabilidade desse conceito aos agrupamentos eletrônicos da cibercultura, como: listas e fóruns de discussão, salas de bate-papo, newsgroups, entre outros. Dessa forma, muito tem-se falado que o ciberespaço gera afinidades entre as pessoas e estimula a formação de comunidades. Inclusive, em (HARASIM; TUROFF, 1996), é argumentado que referenciar a Internet utilizando a terminologia “supervia ou autopista da informação” confunde as pessoas quanto ao que realmente seja a Internet. Para esses autores, as características e inúmeros serviços disponíveis na Internet tornam-na mais próxima do que


78

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

se compreende por comunidade, do que propriamente uma rede onde transita informação, conforme essas terminologias induzem a compreender. Nesse sentido, as inúmeras agregações de pessoas no ciberespaço são comumente denominadas comunidades virtuais. Como é afirmado em Palloff e Pratt, as primeiras comunidades eletrônicas tem como razão primeira para sua existência satisfazer grande parte das necessidades humanas, no sentido das pessoas estarem agregando com outras que possuem interesses e objetivos similares, os quais são os motivos que sustentam as suas conexões. Pode-se considerar como primeiras formas de agregações eletrônicas surgidas na década de 60 nos EUA, o momento em que instituições universitárias adquiriram seus primeiros mainframes equipados com sistemas de tempo compartilhado time-sharing. Com time-sharing é possível realizar a comunicação interativa, como: o bate-papo e troca de correio eletrônico com outros usuários do mesmo sistema. Na década de 70, estes computadores passaram a ser inteconectados entre si pela nascente Internet e as comunidades passaram a extrapolar suas origens regionais, bem como a criar identidades próprias e diversificadas. Atualmente, muitos pesquisadores da cibercultura, como por exemplo, (LEMOS, 1999) tem buscado desmistificar o que realmente pode ser considerado comunidade virtual e agregações eletrônica. Para esse autor não basta a pessoa fazer uso de várias ferramentas, como: chat, listas de discussão, entre outros; é necessário que haja interesses em compartilhar sentimentos comunitários e permanecer relacionando-se por um derterminado tempo para se ter uma comunidade virtual. Os membros dessa comunidade virtual precisam manter-se constantemente motivados e permanecerem em intensa comunicação, mesmo diante das ausências de contatos corporais e as demarcações das distâncias geográficas. Em uma comunidade virtual os preconceitos, as fobias e inseguranças devem ser superadas, ao mesmo tempo que é cada vez mais difícil saber com quem está se comunicando, uma vez que a impessoalidade é uma característica própria da condição das redes telemáticas. Por sua vez, essa impessoalidade causa certa insegurança e fugacidade no estabelecimento de contatos por esta via de comunicação. Como característica positiva da comunidade virtual, constam as suas articulações que ocorrem praticamente de forma instantânea, as pessoas podem entrar num assunto desejado imediatamente. Por outro lado, como já dito, as relações são anônimas já que o aqui e agora da situação face-a-face é algo cada vez mais distantes, o que traz a essa relação mediada por computador uma nova dinâmica ao quotidiano. Todas peculiaridades que caracterizam uma comunidade virtual são os elementos que induzem afirmar que ingressar nela e continuar a ser seu membro acarreta um processo diferente, que pode ser algo difícil para algumas pessoas. Por sua vez, (LEMOS, 1999) con-


Ciberespaço e Cibercultura

79

sidera que existem no ciberespaço agregações não comunitárias, as quais são chamadas agregações eletrônicas. Nessas agregações eletrônicas, os participantes não se sentem envolvidos, uma vez que essas agrupações são “locus” de encontro e de compartilhamento de informações e experiências de caráter totalmente efêmero e desterritorizado. Os vários recursos, como salas de chat e listas de discussões, podem ser tanto agregação eletrônica comunitária ou não comunitária. O que irá distinguir isto é o tipo de uso que o participante faz desses recursos. Por exemplo: em uma sala de bate-papo, se o participante sempre encontra seus “pares”, reconhecendo-os por si mesmo, com eles trocam experiências de cunho privado, com sentimentos que expressam uma afinidade subjetiva, há cooperação mútua na resolução de problemas, o recurso pode estar sendo usado a fim de manter a comunidade em pleno vigor. Mas se por outro lado, o participante aparece no bate-papo apenas de passagem como todos os demais, caracterizando-o como um “não lugar”, então o participante utiliza o bate-papo como uma forma de agregar-se ao outro, sem vínculo como membro desse agrupamento de pessoas. O ciberespaço está povoado por inúmeras relações grupais eletrônicas que cultivam esses dois tipos. Na grande maioria o próprio interesse do indivíduo participante e os objetivos que as constituiram formam as bases para caracterizar o que trata de uma comunidade virtual ou simplemente uma agregação eletrônica. Ainda para (LEMOS, 1999), as relações grupais eletrônicas podem ser constituídas a partir de dois parâmetros: os vinculados territorialmente, ou físicos e os temáticos. No primeiro é mais possível que seus membros também se conheçam fisicamente, sendo esta forma de agregação um complemento para algo que existe fora do ciberespaço. Por sua vez, na agregação eletrônica seus membros dificilmente se conhecem pessoalmente, mas sua construção é motivada pelo assunto temático discutido pelo grupo. Para ambos parâmetros de relações eletrônicas podem ocorrer os dois tipos comunitários ou não comunitários, sendo que a forma de comportamento em que os participantes desses agrupamentos estabelecem podem inferir a presença ou não de laços comunitários entre seus membros. 3.4.2

Formação e Funcionamento das Comunidades Virtuais

Com a ampliação das possibilidades comunicativas permitida pelos dispositivos digitais, os relacionamentos das pessoas tornaram-se cada vez mais complexos. Em nosso cotidiano, as comunidades, bairros, as cidades são tanto virtuais quanto reais, tanto globais quanto locais. Pode-se dizer que as tecnologias tem possibilitado criar uma forma de dependência recíproca social, em que torna viável a formação de novas comunidades onde quer que disponibilizem links comunicativos. É importante observar que essa interdependência social que os internautas acabaram habituando-se é a chave que permite a construção


80

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

de comunidade nos grupos on-line, mesmo que seus membros nunca tenham tido contato frente a frente. Em outras palavras, é possível criar o sentimento de comunidade sem a ocorrência de presença física. Ainda que a presença física seja útil em determinado momento para avançar o desenvolvimento da comunidade. (PALLOFF; PRATT, 2002), assinalam que da mesma forma que as normas são negociadas e formadas nas comunidades convencionais, elas são estabelecidas no ambiente online. Porém, os autores observam que as normas são negociadas colaborativamente e acabam por ser mais rígidas, já que elas constituem os fundamentos para a sua existência. Somente com acordo a respeito de como um grupo interagirá online e os seus objetivos claramente expostos é que a comunidade seguirá adiante. Ainda estes autores concordam com alguns passos básicos a serem dados para a constituição de uma comunidade, destacando-os como necessários para criação de fortes conexões, como: • definir claramente a proposta do grupo: • criar um “local” diferenciado para o grupo; • promover lideranças internas eficientes; • definir normas e um claro código de conduta; • permitir que haja uma variedade de papéis para os membros do grupo; • permitir e facilitar subgrupos; • permitir que os participantes resolvam suas próprias discussões Esses passos são essenciais para que seja estabelecida uma comunidade virtual, em que haja qualidade no relacionamento que se forma online. Eles constituem bases para os membros do grupo ir construindo um compromisso consciente entre si, em que é enfatizado as necessidades de crescimento pessoal e transformação de seus membros, tanto a respeito dos aspectos sociais, como dos fatores relativos à permanência da comunidade. Estudiosos da área organizacional e do comportamento de grupo destacaram que primeiro as pessoas reúnem-se em torno de um objetivo comum, constituindo o estágio de sua formação. No próximo passo, seus membros procuram uns pelos outros para descobrir como trabalhar por objetivos comuns, ao mesmo tempo estabelecem normas de comportamento mediante discussões e acordos construídos colaborativamente. Nesse segundo passo, é comum que seus membros entrem em desacordo, uma vez que seus participantes discutem enquanto se dá a disputa entre a negociação das diferenças individuais, em contrapartida ao propósito e objetivo do grupo. O conflito é essencial para que os membros do grupo alcancem afinidades comuns, mas é preciso que seja superado, do contrário os membros podem desintegrar-se ou mesmo passar por cima das discordâncias.


Ciberespaço e Cibercultura

81

Pesquisadores da formação de comunidade virtual, como (PALLOFF; PRATT, 2002), afirmam que os grupos que são constituidos on-line passam pelos mesmos estágios que os presenciais, mas eles observaram que os conflitos que surgem em grupos on-line têm mais dificuldades de serem superados. As argumentações para justificar estas dificuldades em resolver conflitos on-line surgem a partir dos limites advindos dos meio de comunicação digital que privilegia o modo textual. Nessa comunicação, as pessoas têm dificuldades em descobrir os sentimentos dos outros membros. Inclusive, para permitir que o outro saiba quais são as preocupações referente a discussão, é preciso que a mensagem veiculada pelo participante seja aberta. Além disso, as dificuldades que um grupo encontra para chegar em comum acordo pode ser propiciada pela assincroniedade ocasionada pela seqüência e o ritmo/tempo das mensagens, as quais dificultam entendimento da comunicação. Por sua vez, Palloff e Pratt chegam a conclusão de que quando surge algum desentendimento sobre determinada concepção, a mediação competente faz-se necessária para evitar que os membros da comunidade afastem-se, a fim de não participarem deste momento do conflito, bem como que o grupo não consiga ultrapassar as dificuldades, a ponto de chegar ao consenso.

3.5

COMENTÁRIOS FINAIS

A atuação dos usuários na Internet populariza-se a cada dia, percebe-se os avanços das possibilidades de interferência no funcionamento do ciberespaço, fazendo com que o ser humano se aproprie da tecnologia, utilizando-a para suprir suas necessidades específicas. Mesmo que o ciberespaço continue povoado por grandes corporações que buscam governá-lo, as possibilidades de fuga e participação maior dos usuários estão sendo cada dia mais aprovadas e essas corporações perdem a cada instante o controle da atuação desses no ciberespaço. Por fim, retomando os conceitos estudados de Pierre Lévy que analisa esta nova conjuntura da Web, já fica comprovado que sua base gira em torno da cooperação, o que torna plausível a idéia deste autor a respeito da formação de inteligência coletiva no ciberespaço. Nesse contexto, inclusive, merece destaque a formação de comunidades virtuais envolvendo grupos de pessoas que se dedicam ao esforço de estudarem os recursos tecnológicos, a fim de compreendê-los e dominá-los. Esses aficcionados por desvendarem os segredos dos dispositivos cibernéticos acabaram por criar todo um ambiente de idéias e comportamentos, a cultura hacker, que fazem parte hoje de vários elementos da Internet, e que é abordado detalhadamente no próximo capítulo.


82

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre


4 CULTURA HACKER E CRIMES DIGITAIS

Nesta época de crescente tecnologia e de tantas esperanças com a cibernética, sobretudo quando posta a serviço da sociedade, questiona-se a utilização do termo “hacker” veiculado nos meios de comunicação. Ao longo deste capítulo procura-se discutir sobre a cultura hacker, na busca de elucidar seu real significado, sem deixar de relacionar com a sua importância para o movimento software livre.

4.1

CULTURA E ÉTICA HACKER

Nos últimos anos, a mídia, impressa e televisiva principalmente, tem dado grande destaque para a questão de segurança de informações em ambiente de rede. Assim sendo, tem-se tornado cada vez mais comum ler ou ver notícias sobre invasões de sistemas computacionais, fraudes eletrônicas e eventos similares. Essas notícias acabam por trazer à realidade cotidiana a questão da invasão digital, geralmente atribuída a um “hacker”. Em senso comum, o termo hacker é entendido como sendo o especialista em computação (um “fanático” pela máquina) que gosta de mostrar seu poder de conhecimento invadindo sistemas informatizados alheios. Se o interesse é ser mais formal, é possível perceber que essa definição não é tida como adequada pelos técnicos da área de computação e muito menos pelos próprios hackers. Eric S. Raymond, um dos líderes do movimento hacker, é autor do dicionário Hacker Howto (RAYMOND, 2001). Ele também é o atual responsável pelo “Jargon File Resources” em (RAYMOND, 2003), um dicionário sobre termos e jargões do vocabulário hacker. Esse dicionário, também conhecido como “Jargon”, possui uma versão impressa, editada pela MIT Press, denominada “The New Hacker ’s Dictionary”. O Jargon File (RAYMAND, 2003) apresenta várias definições ao termo hacker, a maioria deles tendo a ver com aptidão técnica e um prazer em resolver problemas e superar limites.


84

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Conforme comentado em (LORENZZONI, 2002), em toda sociedade existem preceitos éticos e morais, o que também é válido no ciberespaço e na “cultura hacker”. Para Stepnen Levy (LEVY, 1999), a ética tradicional direcionada ao hacker das décadas de 70 e 80 têm os seguintes preceitos: Acesso irrestrito a computadores: qualquer meio que seja capaz de ensinar algo sobre como o mundo funciona - deve ser ilimitado e total para seu trabalho. Caso o hacker precise enviar várias mensagens para celulares sem pagar, ao invés de entrar várias vezes na interface web e enviar uma mensagem por vez, ele, tipicamente descobrirá como a interface web funciona e fará um programa automático para o envio de mensagens de forma mais ágil e com menos desperdício de tempo. Toda informação deve ser livre: apesar da sociedade do consumo propor que tudo deva ser empacotado e vendido, inclusive a informação. Para os hackers a informação, produto das mentes das pessoas, não deveria ser comercializada, uma vez que seria difícil vender o cérebro de uma pessoa. Desacredita a autoridade e promove a descentralização: um hacker não aceita os argumentos de autoridade e não acredita na centralização como forma ideal de coordenar esforços. Assim, se um economista disser a um hacker para investir em determinada ação, ele não aceitaria, mas faria a pergunta: “por quê?”. Hacker deve ser julgado segundo seus atos, não por critérios acadêmicos e outros. A Meritocracia tem como base que se alguém é bom mesmo, ele faz o que sabe fazer e os demais o terão em alta conta. Certificados não querem dizer nada sobre competência. Porém, Lorezzoni afirma em seu texto (LORENZZONI, 2002) que na década de 90 novos preceitos éticos foram incluídos e formaram um novo código analizado por Steve Mizrach no documento Is There a Hacker Ethic for 90s Hacker? (MIZRACH, 1997). Esse novo código é bastante complexo, sendo que destaca como mais importante dos novos preceitos o chamado “Primum nom Nocere”, que foi retirado da ética de Hipócrates (o pai da medicina), e que significa “Primeiramente não Cause Nenhum Mal.” Esse preceito explica que ser um hacker é tornar-se um agente na busca do conhecimento para a própria iluminação. Não há nenhuma necessidade intrínseca de destruir. Sendo esse o principal preceito que separa o hacker do cracker. Ambos possuem conhecimentos avançados sobre informática e programação1 , mas enquanto o primeiro utiliza seus conhecimentos para alcançar a própria iluminação, o segundo está mais interessado em mostrar-se para os outros, ou conseguir vantagens financeiras. 1 Na

verdade, a maioria dos crackers acaba não precisando de conhecimentos tão avançados assim, pois a atividade destrutiva é sempre mais simples e fácil do que a atividade construtiva e criacional.


Cultura Hacker e Crimes Digitais

85

Ainda segundo Pablo Lorezzoni existem três vertentes para origem das culturas hackers, sendo que muitos hackers atuais guardam características de uma ou outra dessas vertentes mais predominantes. Porém, a maioria dos hackers originam-se a partir da mistura que ocorreu ao longo da história da computação. As três vertentes que deram origem ao hacker de hoje são os hobistas, os acadêmicos e os networkers. Os hobistas originaram-se dos rádios amadores, na década de 20 e em anos posteriores. Nesse período muitos equipamentos eletrônicos eram vendidos em kits, o que despertou o desejo de conhecimento de eletrônica. Posteriormente, os primeiros computadores que ofereciam recursos gráficos, como os Commodore-64, tornaram-se as chaves mestra para a atuação dos hobistas. As atividades que desenvolviam consistia em quebrar a proteção de jogos eletrônicos vendidos para esses computadores. O reconhecimento desses advinheram da capacidade de alterar programas (hackear2 ) para incluir uma tela de abertura que mencionasse o seu nome/nick em geral com explosões e cores psicodélicas. O C-64 tinha apenas 64 kb de memória, por isso, essas “introduções” aos jogos deveriam ser pequenas e eram, quase sempre, codificadas em linguagem de máquina, ou em Assembly. Atualmente, a herança dessa época persiste na famosa “demo fests” em que pequenos programas nesse estilo (os demos) são apresentados e competem por popularidade. O mundo da vertente acadêmica surgiu no MIT (Massachussetts Institute of Tecnology), na década de 60. Em sua maioria essa vertente era formada por estudantes de Física e Matemática que despertavam seus interesses nas novas máquinas de calcular e passavam às noites (horários que as máquinas estavam desocupadas) descobrindo cada canto e cada curva da intrincada arquitetura dos computadores primitivos. Mais tarde, universidades como Stanford (SRI) e Carnegie Mellon (CMU) entraram na computação, com isso fundaram suas próprias culturas que permaneceram separadas por muitos anos, até que ocorresse sua fundição. Já os networkers em príncipio dedicaram-se ao phreack. Por phreack entende-se a prática de burlar sistemas de segurança das redes telefônicas para utilizar-se delas sem que houvesse custo. Entre os hackers que se destacaram nessa cultura encontram-se: o Cap’n Crunch. Sua importância foi destacada pela descoberta do tom de um apito que vinha em uma caixa de cereal com o mesmo nome (Cap’n Crunch) e que permitia o acesso a rede internacional de telefonia sem pagar. Outro hacker destacado era Joe Engressia, que era cego e podia assobiar os tons de controle na freqüência correta. No percurso histórico da cultura hacker destacam-se os inúmeros benefícios que suas diversas vertentes proporcionaram, desde o surgimento de uma cultura compartilhada de 2 Note

que este grupo já usa o termo hackear com um significado diferente dos hackers originais. Para Eric Raymond, Richard Stallman, hackear é trabalhar na solução de um problema computacional.


86

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

programadores experts e os magos da conectividade, cujo passados históricos cruzam-se há décadas, com os primeiros computadores de tempo compartilhado e as primeiras experiências com a ARPANET. Essa cultura de hacker praticamente construiu a Internet. Além disso, os hackers fizeram o sistema operacional Unix, construíram a USENET e fizeram a World Wide Web funcionar de forma a priorizar a liberdade de acesso a informações e comunicação. Para Eric Raymond (RAYMOND, 2006), o início dessas culturas hackers deu-se em 1961 quando a Universidade de Massachusetts adquiriu o primeiro computador modelo PDP-1. A comissão de energia e sinalização do clube de estrada de ferro do MIT (Signal and Power Comittee) diante desse fato, adotou o PDP-1 como instrumento para desenvolvimento de ferramentas de programação e de programas, criando gírias de informática e uma cultura particular reconhecida até os dias de hoje. De acordo com esse autor, o termo hacker foi utilizado pela primeira vez nessa universidade. Observe que a palavra hacker não é usada apenas para designar o hacker-de-software. Há pessoas que aplicam a atitude hacker em outras áreas, como eletrônica ou música - na verdade é possível encontrá-la nos níveis mais altos de qualquer ciência ou arte. Segundo (RAYMOND, 2006), hackers de software reconhecem essas semelhanças e chamam de hackers esses outros abnegados, alegando que a natureza hacker é independente da mídia particular em que o hacker trabalha. Ainda para (RAYMOND, 2006), algumas pessoas autodenominam-se hacker sem entretanto serem. Existem aqueles que, por exemplo, invadem sistemas para fraudarem códigos e alterarem informações em computadores e sistemas informáticos. As pessoas envolvidas com o mundo cibernético, das redes de computadores e de comunicação, costumam chamar essas pessoas de “crackers”. Assim, conforme Raymond, é lamentável o fato de muitos jornalistas e escritores de alta tecnologia usarem, erroneamente, a palavra “hacker” para descrever crakers. Para ele, a diferença básica é esta: hackers constroem coisas, crackers destroem-nas. Outra observação a ser feita é que o hacker e o cracker são vistos como gênios da informática. Mas, contrariamente ao mito popular, não é necessário ser um nerd3 , para ser um hacker. Entretanto, isso ajuda muito, e muitos hackers são de fato nerds. Ser um proscrito social o ajuda a manter-se concentrado nos projetos realmente importantes, como pensar e “hackear”. Por isso, muitos hackers adotaram o rótulo “nerd”, e até mesmo usam o termo (mais duro) “geek”4 , como um símbolo de orgulho – é um modo de declarar

3 Nerd: 4 Geek:

viciado em estudo, pessoa geralmente anti-social, o popular “cdf”. viciado em tecnologia, pessoa que entende de computadores e passa horas na Internet.


Cultura Hacker e Crimes Digitais

87

sua independência de expectativas sociais normais. A The Geek Page5 apresenta uma discussão extensiva sobre o assunto. Em linhas gerais, hackers resolvem problemas e acreditam na liberdade e na ajuda mútua voluntária. Para ser aceito como um hacker, é necessário comportar-se como tal. Segundo (RAYMOND, 2006), ser hacker pressupõe, entre outras, as seguintes ações ou comportamentos: escrever programas open-source, depurar programas, editar manuais e documentos FAQ na Web. Enfim, ser hacker implica realmente acreditar nessa atitude. É importante destacar que dentro da comunidade software livre veicula uma visão romântica do hacker. Nessa visão, o hacker é reconhecido como uma pessoa bondosa sempre disposta a contribuir com a comunidade, especialmente a comunidade de software livre. Ainda nessa compreensão, o hacker só invade um sistema para verificar suas falhas de segurança e avisar o administrador daquela rede. Logicamente, esta é uma visão incorreta e romântica do contexto da cultura hacker, uma vez que o hacker não é, em geral, motivado por preceitos morais (sejam eles bons ou ruins), mas sim por um forte instinto de curiosidade e vontade de vencer desafios. Essa visão dificulta compreender o real alcance da cultura hacker e o impacto da mesma dentro da comunidade software livre, pois simplifica por demais a questão. Obviamente, a comunidade deve muito há vários hackers, entre eles Stallman, Eric Raymond e Linus Torvalds, mas não se deve, com isso, chegar ao ponto que se um indivíduo é hacker ele vai contribuir com o software livre. Muito menos se deve fazer uma proposição que “hacker é do bem e cracker é do mal”, desvirtuando o real significado do que é ser hacker ou cracker. Por sua vez, existem diversas questões éticas, e até mesmo morais, dentro da cultura hacker, mas elas transcendem a uma discussão pura e simples sobre o bem × mal.

4.2

PRIVACIDADE, LEIS E CRIMES NO CIBERESPAÇO

Com as transformações tecnológicas impostas à sociedade como um todo, estas vêm exercendo um papel fundamental nos relacionamentos humanos, pois parte de seu trabalho foi absorvido pelos mecanismos digitais, ocorrendo a automatização de tarefas em vários setores. Essa explosão tecnológica caminha com a evolução dos meios de comunicação, sendo possível atualmente a abertura de fronteiras através da transmissão de dados de um computador para o outro, demostrando sua força maior na globalização da economia e na Internet. Desta forma, apesar desse fenômeno ter facilitado a vida das pessoas em diversos aspectos, contribui também para o aparecimento de uma nova modalidade de crime: o crime 5 http://samsara.circus.com/~omni/geek.html.


88

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

digital. Esse tipo de delito causa prejuízos enormes às empresas e à sociedade em geral. Segundo o CERT (Computer Emergency Response Team6 ), órgão responsável em apurar os incidentes na Internet, os crimes digitais nos próximos anos tendem a aumentar vertiginosamente, sendo de suma importância, a elaboração de uma norma realmente eficaz para o combate desse novo modelo de criminalidade. Na realidade, a criminalidade relacionada ao meio digital é novidade em todo o mundo, com o agravante de que policiais e legisladores passam a atuar em um campo em que pouco dominam. Porém, a legislação e a criação de uma norma eficaz é certamente algo muito complexo. A criação de uma norma eficaz é certamente um desafio para as autoridades governamentais e a sociedade civil organizada. Isso se dá principalmente devido a vários fatores, como: aplicação da lei no âmbito internacional e definição clara do que é o crime digital. Por exemplo, nos Estados Unidos, com o advento da Internet, novas condutas ainda atípicas surgem a todo o instante. Nesse país, o CFAA7 (Computer Fraud and Abuse Act) contém a legislação criminal e os dispositivos para o combate ao acesso criminoso em computador por via interna ou externa (anti-hacking provision). Segundo (ELIAS, 2000), o CFAA em 1984 caracterizou o acesso a computadores sem autorização e usos ilegais das informações obtidas como crime. Este foi o primeiro passo na luta contra crimes cibernéticos nos Estados Unidos. Por apresentar diversas lacunas (falhas) e críticas ao seu conteúdo limitado, o CFAA recebeu emendas em seu texto legal, aumentando assim o seu escopo de atuação. Desde então, é crime naquele país a conduta de transmitir programas diretamente ou indiretamente com o propósito de causar danos (vírus, trojans, etc). Ficou famoso o caso United Station versus Morris: um estudante do primeiro ano do curso de pós-graduação da Cornell University, Robert Tappan Morris, que desenvolveu um pequeno programa Sworm, um vírus computacional capaz de causar danos a sistemas computacionais de terceiros. Segundo Morris seu programa não tinha intenção maléfica, servindo apenas para testar a capacidade de multiplicação do próprio programa. A solução a esse caso foi demorada, causando diversos prejuízos nos EUA. No final do processo, Morris foi condenado à prisão. Enquanto isso, na China as normas são extremamente rígidas para combater atitudes de hackers e crackers. Por exemplo, em 1992, a Associação Press divulgou um artigo envolvendo um chinês chamado Shi Biao. Biao invadiu um banco onde roubou 120 mil dólares. Ele foi preso e julgado. Sua sentença: Morte. O senhor Biao foi executado. Na Finlândia, a preocupação recai principalmente sobre o vírus de computador. Apesar de alguns casos acontecerem acidentalmente, nesse país é crime o fato de alguém trazer um disquete contaminado e não utilizar um antivírus, contaminando assim uma rede e causando des6 http://www.cert.org. 7 http://www.panix.com/~eck/computer-fraud-act.html.


Cultura Hacker e Crimes Digitais

89

truição de dados. É considerado crime também um arquivo contaminado pego em um site via download. Em Israel existe uma conduta bem diferente do resto do mundo no que se refere à atividade hacking e cracking. O governo, em vez de punir, aproveita a inteligência desses ciberpersonagens, contratando-os para trabalhar em Agências de Informações e Segurança Nacional. A partir daí, hackers e crackers compartilham seus conhecimentos em benefícios da sociedade para proteger os dados de seu país. Tais personagens passam a ser uma espécie de consultor de segurança, não praticando mais atitudes grosseiras e auxiliando o governo a proteger suas informações contra espionagem cibernética de outros países8 . No Brasil, uma questão amplamente discutida atualmente diz respeito a indefinição de atuação jurídica de um criminoso digital e as dificuldades de punição pelos seus atos. O Código Penal Brasileiro foi criado em 1940, sendo que o legislador naquela época não podia prever o avanço da tecnologia e seu emprego maléfico na sociedade atual. É importante ressaltar que tal código vem sendo aplicado até os dias de hoje. Com isso, a única alternativa encontrada por estudiosos foi a aplicação de um artigo encontrado na lei de Telemática. Embora seja grande o esforço em punir estes agentes, no caso concreto o resultado é o arquivamento do processo ou absolvição do réu por falta de enquadramento jurídico (da atipicidade do crime). Ilustrando a defasagem no campo da legislação brasileira, citamos o exemplo incoerente no combate à pirataria de CDs (software, musicais), enquanto no ciberespaço a distribuição dos referidos programas e músicas é realizada de forma muito mais moderna, barata, e ilícita, e ilimitada através das mídias digitais (exemplos: formatos MP3, OGG, MPEG e outros formatos de compressão de dados). Para evitar uma onda de impunidade para esse tipo de delito, vários estudiosos e autoridades governamentais não medem esforços para elaborarem diversos projetos de lei. O combate à criminalidade na Internet encontra diversos problemas não somente às lacunas legislativas, mas também na sua aplicação no caso concreto. Partindo deste contexto, podemos dizer juridicamente, que existem dois tipos de crimes na Internet:

Crimes de computador: são aqueles crimes, cujo o cibercriminoso modifica, copia, apaga, intercepta dados, bem como invade e-mails, Home-pages e sistemas de Redes. Nessa categoria estão os Trojans, War-dialers, ataques de negação de serviços (Denial of Service Attacks), ataque de força bruta ( Brute Force Attacks), sniffers, estouro de buffers ( Buffer Overflows), etc. 8 Deve-se

ressaltar que a maioria dos crackers não consegue se adaptar a esta nova situação. Eles tem dificuldade em trabalhar em equipe e em se focar em objetivos concretos quando surgem dificuldades.


90

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Crimes no computador: são aqueles nas quais o computador é usado somente como “modus operandi” do crime. Por exemplo: Envia e-mail ameaçando B de morte. O código penal em seu art.147 diz: ameaçar alguém, por palavra, escrita ou gesto, ou qualquer outro meio simbólico, de causar-lhe mal injusto ou grave. Pena: detenção de 1 a 6 meses ou multa. Conforme o dispositivo penal, o meio simbólico poderia caracterizar o e-mail. Nesse caso, o requisito principal para que o delito se efetive, é que a pessoa se sinta ameaçada, não importando a forma pela qual a pessoa recebeu a ameaça. O mesmo exemplo vale para a exposição de material inadequado como por exemplo, a pedofilia.

A questão da criminalidade de computador perpassa assuntos complexos, como a segurança e a privacidade. Esses dois temas são estudados há tempos. Em 1939, a Universidade de Cambridge através dos pesquisadores Kendall e Smith tratavam da pesquisa de combinação aleatória de número. Em 1955, vários pesquisadores através do projeto “A Million random digits with 100,000 normal deviates” encabeçado pela Rand Corporation desenvolveram estudos sobre criptografia9 . Ao longo dos anos, a criptografia na informática vem se desenvolvendo. Sua importância reside no fato dela permitir a privacidade e a segurança do tráfego de informações de forma eletrônica, principalmente através da Internet. Por outro lado é cada vez maior a preocupação do governo americano e outros governos, com o uso da criptografia por criminosos, impedindo o acesso ao conteúdo criptografado de alguma mensagem. Discussões em torno da viabilidade e da validade de documentos judiciais e extrajudiciais transmitidos via Internet, com a utilização da criptografia (assinatura digital) podem eliminar ou pelo menos dificultar os crimes de computador, sendo possível imaginar que num futuro não muito distante o conceito de documento tornarão freqüentes a existência de documentos juridicamente válidos. O problema principal está em combater crimes de computador no âmbito internacional, já que nem sempre é possível punir o responsável, devido a diversos fatores, entre eles o anonimato e a estrutura virtual. Em primeiro lugar, a rede não respeita fronteiras entre os países, o que dificulta administrar diferenças culturais ou aplicar leis nacionais. Em segundo, a comunicação tem natureza mista, entre o público e o privado. A troca de mensagens de correio eletrônico é particular como um telefonema, uma página na Web é pública como um programa de TV. 9 Conjunto

de princípios e técnicas de matemática utilizando algoritmos e funções poderosas capazes de decodificar uma mensagem, baseadas em grandes números primos com centenas de dígitos e outras técnicas de escrever em cifra. Maiores detalhes no módulo (UCHÔA, 2005).


Cultura Hacker e Crimes Digitais

91

Analisando o exemplo acima, chega-se à conclusão de que faltam limites geográficos estabelecidos na jurisdição, gerando assim problemas relacionados à soberania nacional, como nos casos em que dois países ou mais estão envolvidos. Nesse contexto, aparece o problema relacionado ao princípio da territoriedade, ou seja, definir se a jurisdição encontrase no país de onde partiram os dados, onde estes dados estão armazenados ou onde o dano foi causado. Como conseqüência, é difícil rastrear e prender o infrator em flagrante, pois o resultado vem muito depois do início da execução, sendo que a vítima só toma conhecimento do fato após longo período. Já no âmbito nacional, é possível combatermos atitudes grosseiras, entretanto o país carece de uma legislação efetiva que defina os crimes cibernéticos.

4.3

COMENTÁRIOS FINAIS

Com o estudo da cibercultura e do ciberespaço fica evidente que o grande impacto da Internet não vem pelas suas inovações tecnológicas, mas pelas novas possibilidades que elas abrem para a interação entre as pessoas e principalmente para a participação dos cidadãos nesse espaço virtual . O hacker não atua apenas na reflexão do que pode ser feito com a tecnologia, mas também em como as vidas das pessoas podem ser afetadas pelas tecnologias, e desta reflexão que surge o Movimento do Software Livre, tema dos próximos capítulos. O movimento do Software Livre almeja o uso responsável da tecnologia, como um instrumento de libertação do conhecimento e das sociedades.


92

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre


5 HISTÓRIA E FILOSOFIA DO SOFTWARE LIVRE

Este capítulo aborda a história do nascimento e evolução do software livre e código aberto, destacando os principais atores e suas comunidades; bem como os mecanismos da metodologia de desenvolvimento software livre e a formação de projetos bem sucedidos.

5.1 SOFTWARE LIVRE E SOFTWARE DE CÓDIGO ABERTO Nos últimos vinte anos, tem havido uma mudança de enfoque no uso da informática: os computadores pessoais deixaram de ser o centro das atenções, cedendo espaço para os ambientes de redes, em especial à Internet. A Internet pode ser considerada hoje como um meio de comunicação com poder de influência comparável à televisão e ao rádio. O fato é que, graças à Internet, os programas proprietários têm perdido espaço para uma nova forma de produção de programas para computador: o software livre. Cada vez mais, os programas de código aberto, como também é conhecido o software livre são usados pelas empresas e por usuários de informática. O público em geral associa esta categoria de programas a dois grandes nomes:

1. FSF (Free Software Foundation)1 que é responsável pelo Projeto GNU, um conjunto de programas gratuitos (incluindo-se desde compiladores até ambientes gráficos); 2. Linux2 , um sistema operacional Unix, multiusuário, multitarefa e multiprocessado, de livre distribuição, disponível para equipamentos x86 (Intel e compatíveis), Motorola 68K, Digital Alpha, Sparc, Mips e PowerPC, entre outros. 1 http://www.fsf.org/. 2 http://kernel.org/.


94

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Essas não são as únicas entidades que representam ou desenvolvem software livre ou programas de código aberto. Não podem ser esquecidos, só para citar alguns exemplos importantes, a Apache Software Foundation3 , a Mozilla Foundation4 , o FreeBSD5 , OpenOffice6 , a OSI7 e outros. Essas organizações e projetos são independentes, tanto do Linux quando da FSF. Infelizmente, é bastante comum encontrar artigos sobre o tema com erros técnicos graves sobre o assunto. Dessa forma, é importante saber o que realmente constitui o software livre, para não cair em falhas graves ao tentar defendê-lo. Pode-se dizer, de forma ampla, que o movimento Software Livre tem raízes históricas no século 18, com o surgimento do direito autoral, e no século 19, com a evolução do conceito de propriedade intelectual, até chegar ao de patente. Isso porque, como será verificado adiante, o software livre utiliza-se do aparato legal sobre direitos autorais para garantir a liberdade de distribuição e transformação de conhecimento. Nesse contexto, a elaboração de um documento denominado “Manifesto GNU” (STALLMAN, 2002a) pode ser considerada como um dos principais marcos históricos do surgimento de uma nova forma de criação de software. Nesse documento estavam descritas as razões do movimento Software Livre e propunha a criação de um sistema operacional livre, denominado GNU. Conforme (STALLMAN, 1999): Eu escolhi fazer o sistema compatível com Unix, então ele deveria ser portável e usuários Unix poderiam facilmente mover-se para ele. O nome GNU foi escolhido seguindo uma tradição hacker, como um acrônimo recursivo para “GNU Não é Unix”8

Como é sabido a exploração comercial do software de computador geralmente é baseada na legislação de copyright. O copyright foi criado para proteger os interesses de autores, ao mesmo tempo que garante a continuidade da produção literária diante do surgimento da imprensa, que tornava fácil a duplicação de qualquer texto sem o conhecimento e autorização do seu autor (RAYMOND, 1999a). Segundo a lei de copyright9 , o autor pode restringir o uso de suas obras, e qualquer atividade não explicitamente autorizada por ele deve ser considerada ilícita. Desta forma, copiar um livro, trechos de música, programas (em vez de comprar um exemplar) ou copiar trechos, sem indicar a origem e dar os devidos créditos ao autor, referenciando-o, constituem crime na legislação de copyright. 3 http://apache.org. 4 http://mozilla.org. 5 http://www.freebsd.org. 6 http://www.openoffice.org. 7 site

da OSI, www.opensource.org. is Not Unix?, em Inglês. 9 Copyright também pode ser compreendido como “direito de cópia”. 8 GNU


História e Filosofia do Software Livre

95

Um exemplo de uso do copyright na área computacional é o software proprietário, através de suas licenças são limitadas as atividades que os usuários podem realizar com uma cópia de um software. É bastante normal que esse uso seja limitado pela quantidade de indivíduos que operam o software, ou a quantidade de computadores onde o produto pode ser instalado, senão o volume de dados que pode ser manipulado pelo software. A fim de que o usuário que adquirir um software saiba quais direitos lhe é reservado sobre seu uso, ele precisa conhecer a licença de uso do mesmo. Caso o uso do software esteja alheio às condições estipuladas em seu contrato de licença, como por exemplo a prática de distribuição de versões, isto vem a constituir crime de pirataria de software. Em um programa que é considerado como software livre ou software de código aberto, o usuário geralmente tem a permissão explícita para o uso ilimitado e irrestrito desses programas, independente do contexto. Dentre as permissões explícitas costumam constar também que esses programas podem ser modificados pelos usuários, incluindo distribuir estas alterações a terceiros, mesmo que outra pessoa utilize-o para construir um novo programa que futuramente venha a competir diretamente com o programa original. Dessa forma, os desenvolvedores de software garantem o acesso a formação do saber em torno destes produtos, sem importar com o que aconteça no futuro. Analisando as possibilidades de uso de um software, conforme os termos estipulados por sua licença de uso, pode-se dizer que o software livre é exatamente a mesma coisa que um software código aberto. Em geral, o uso de um destes dois termos indica uma visão ideológica / pragmática bastante diferenciada pelo seu desenvolvedor, além de objetivos bastante diferentes em relação ao impacto do produto na sociedade em geral e em particular, em sua comunidade de usuários. A expressão “software livre” é defendida pela apresentada FSF e o termo “software código aberto”, pela Open Source Initiative (OSI) 10 ). Nesse contexto, a Figura 5.1 apresenta a visão da FSF sobre as categorias de software de acordo com a licença de uso. Vários fatos importantes sobre o software livre são evidenciados na Figura 5.1. Em um primeiro momento, há que se perceber uma grande sobreposição entre o Movimento Software Livre (defendido pela FSF) e o Movimento Código Aberto (defendido pela OSI). De uma forma sintética, em geral esses dois movimentos possuem grande sobreposição, diferenciando-se em questões ideológicas. Enquanto para a FSF, há uma luta pela liberdade de conhecimento, não apenas em termos de software, a OSI está preocupada com aspectos práticos de desenvolvimento de software. Para a FSF, o software livre representa uma oportunidade de democratização e disseminação do conhecimento. Já para a OSI, o software de código aberto possibilita uma maior auditoria e, portanto, o desenvolvimento de aplicativos mais seguros e de maior qualidade. 10 http://www.opensource.org/.


96

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura 5.1: Categorias de Software – Adaptado de (FREE SOFTWARE FOUNDATION, 2002)

É importante notar que, em inglês, os dois termos são ambíguos, o que acaba por criar a necessidade de esclarecimento. Em inglês, o termo “free” possui dois significados: ‘grátis’ e ‘livre’, donde o fato de sempre comentar que software livre equivale à liberdade de expressão e não à cerveja grátis11 . Nesse sentido, é importante destacar na Figura 5.1, que existem diversos aplicativos proprietários gratuitos, como o Acrobat Reader, e que aplicativos de software livre podem ser vendidos. A preocupação maior da FSF, como comentado, é com a liberdade de conhecimento, ou seja: dado que o usuário possa ter acesso ao código do programa de alguma forma pública, nada impede a venda de software livre. Esse é o mecanismo que garante, por exemplo, que as distribuições possam arrecadar fundos com a venda de CD: a partir do momento que o código esteja disponível, é possível fazer comércio com software livre, de forma direta (venda do mesmo em diversos suportes físicos, etc.) ou indireta (venda de manuais, suporte técnico, etc.). A obrigatoriedade é que se alguém quiser ter acesso ao código-fonte, ele esteja disponível para download, ou alguma forma equivalente. Dessa forma, cabe destacar que o termo “Free Software”, na visão da FSF, não se equivale a software gratuito. Mas ainda, é possível achar programas

11 Free

software ≡ free speech 6≡ free beer.


História e Filosofia do Software Livre

97

proprietários na web distribuídos gratuitamente e que se intitulam free software, quando uma melhor denominação seria freeware. Por outro lado, a OSI, dirigida por Eric Raymond, autor do clássico “A Catedral e o Bazar” (RAYMOND, 1999a), irá preferir o termo “Open Source”, para dirigir-se aos aplicativos em que o usuário tenha acesso ao código e possa modificá-lo e distribui-lo. A visão desse grupo é mais pragmática do que a da FSF e objetiva principalmente a qualidade de software. Nesse modelo, um software que possua vários usuários tende a ter vários olhos em seu código, permitindo uma maior depuração de erros, e aumento das melhorias do mesmo. Cabe ressaltar que o termo “Código Aberto” muitas vezes é utilizado (tanto em língua portuguesa como em língua inglesa) para designar aplicativos a que se tenha acesso ao código, mas sem poder de modificação ou distribuição, sendo, portanto, software proprietário. Em português, o termo “software livre” não possui as ambigüidades inatas da língua inglesa e tem sido o mais adotado pela maioria das pessoas envolvidas com Linux no Brasil, uma vez que o termo “código aberto” é ambíguo nas duas línguas. Este texto irá, portanto, preferir usar “software livre”, sempre que não houver necessidade de distinguir entre os movimentos dirigidos pela FSF e pela OSI. Cabe destacar ainda que está tomando força uma denominação mais interessante aos usuários, especialmente no mercado corporativo. Essa denominação busca clarear as ambigüidades das duas denominações, adotando uma terminologia mais completa: FOSS (Free and Open Source Software), Software de Código Livre e Aberto. Dessa forma, fica caracterizado a necessidade de liberdade (de alteração e distribuição) ao código, disponível (aberto) ao usuário. Ainda na Figura 5.1, cabe destacar o conceito de copyleft, defendido por Stallman. Como comentado, o Movimento Software Livre surge no mercado de maneira contrária aos programas proprietários. Isto porque o software livre não é diretamente comercializado como produto. Além disso, a sua filosofia principal é a questão de liberdade de expressão, dado que os usuários têm liberdade de executá-los, copiá-los, distribuí-los, estudá-los, modificá-los e aperfeiçoá-los. Pode-se dizer ainda que o software é livre quando garante as 4 liberdades, destacados em (STALLMAN, 1999): 1. liberdade de executar o programa para qualquer propósito; 2. liberdade de estudar como o programa funciona, e adaptá-lo às suas necessidade; 3. liberdade de redistribuir cópias de forma a auxiliar alguém; 4. liberdade de aperfeiçoar o programa e liberar os seus aperfeiçoamentos, de modo que toda a comunidade se beneficie, entre outros. Um programa é, portanto, considerado como software livre, se o usuário possui essas liberdades acima, sendo livre inclusive para redistribuir cópias, seja com ou sem modificações, seja de graça ou cobrando uma taxa pela distribuição, para qualquer pessoa e em


98

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

qualquer lugar. A liberdade ainda inclui que não é necessário pedir ou pagar pela permissão de tomar todas essas atitudes. Entretanto, Stallman ao criar a FSF percebeu que havia uma prática na indústria de software de apropriarem-se do código de aplicações de domínio público fazerem alterações e não as devolverem para a comunidade. Além disso, o aplicativo desenvolvido, usando conhecimento público, era vendido como produto, tornando-se proprietário. O caso mais clássico é o do X11, gerenciador de janelas do UNIX, mas existem vários outros, como por exemplo a biblioteca sockets do Windows, responsável pela comunicação TCP/IP nesse SO, e que foi baseada em código BSD. Dessa maneira, Stallman propôs o conceito de copyleft (deixe copiar) como um trocadilho com copyright (direito de cópia). Na verdade, esse trocadilho surgiu numa comunicação de e-mails entre Stallman e seu amigo, Don Hopkins, que disponibilizava um conjunto de jogo de palavras, com objetivos de diversão. Stallman percebeu o potencial da frase “copyleft: all rights reversed” (copyleft: todos os direitos revertidos). Com o copyleft, portanto, Stallman quiz manter os direitos autorais, mas garantir o retorno à comunidade. Ou seja, qualquer alteração no software que seja distribuída precisa disponibilizar o código aos interessados. Esse conceito foi incorporado pela FSF na licença GPL, que será discutida em detalhes no Capítulo 6.

5.2

EVOLUÇÃO HISTÓRICA DO SOFTWARE LIVRE

Ao invés de entrar direto no percurso histórico do software livre é interessante compreender algumas questões gerais sobre os primórdios da computação, a fim de que o Movimento Software Livre seja melhor contextualizado desde esta época. No princípio, o mercado comercial de informática era limitado à venda de computadores, seus periféricos e os serviços de manutenção sobre ambos, que eram chamados de hardware (STALLMAN, 2002b). Os programas de computadores ainda não eram comercializados, desta forma todo usuário de computador era por necessidade um programador, sendo obrigado a escrever seu próprio software para que fossem atingidos os objetivos de aquisição e uso do equipamento. Os fornecedores de computadores viam o software como um acessório necessário ao funcionamento do hardware, que não deveria ser encarada como uma fonte de receita. Assim, esses fabricantes davam abertura para que seus usuários utilizassem e modificassem livremente o software, por eles fornecidos nos computadores. Também era prática incentivada pelos fabricantes a troca de idéias e mesmo de programas completos entre os usuários, uma vez que acreditavam que essa troca poderia impulsionar à aquisição de mais computadores. Afinal, só poderia usar o software escrito por um usuário quem adquirisse


História e Filosofia do Software Livre

99

outro computador igual ao dele. Sendo assim, a troca de programas e informações entre os usuários criava um feedback positivo, que por sua vez, beneficiava os fabricantes de computadores. Inclusive, foi neste contexto, de circulação livre de idéias e programas de computador, que surgiu a ARPANET (tratado no Capítulo 2) e a comunidade hacker (abordado no Capítulo 4). Como pode-se intuir as comunidades de pesquisadores e de hackers deram origem à Internet e também formaram as primeiras comunidades de Software Livre. Uma vez que existia pequena quantidade de usuários de computadores, muitos anos passaram-se para que houvesse um mercado consumidor com potencial suficiente para justificar o desenvolvimento de software com o objetivo de venda para terceiros. Além da pequena quantidade de usuários de computadores, faltava tecnologia que permitisse a um programa ser escrito originalmente em um modelo de computador e executar sem modificações (ou com poucas modificações) em outro modelo de computador. Somente com o surgimento das primeiras linguagens de programação de alto nível, como: FORTRAN, BASIC, COBOL e ALGOL, que houve condições para um programa ser escrito sem conhecimento profundo sobre as particularidades de construção de um modelo específico de computador. O relacionamento entre os fabricantes de hadware e periféricos com os usuários de computadores somente mudaram quando os programas começaram a serem comercializados de forma independente do hadware. A partir deste momento, o fornecedor não se beneficiava mais da troca de informações e programas entre os usuários, como era feito anteriormente. O que fez com que o fornecedor não tivesse interesse que estes usuários adquirissem as competências para escreverem seus próprios programas, uma vez que seria ameaça destes tornarem-se competidores potenciais. Assim, a comercialização dos programas passa a ser feita mediante o aceite por parte do usuário dos termos de restrições, os quais proibiam o usuário de reproduzir e distribuir o programa para terceiros. Também não era permitido o estudo do funcionamento desse programa, através da engenharia reversa do seu código interno; bem como o usuário não podia divulgar informações a respeito do funcionamento e defeitos do software. Os fabricantes de software comercializado começavam a entrar em choque com os usuários, uma vez que a venda de seu produto poderia ser ameaçada pela descontinuidade. As restrições supra expostas tolhiam as liberdades que antes eram atribuídas aos usuários, bem como grupos concentrados em universidades que também produziam software. É nesse contexto que surge o Movimento Software Livre, como uma forma de garantir essas liberdades, sem que sejam ameaçadas no futuro.


100

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Como marco histórico do surgimento do Movimento Software Livre, pode ser citado a criação da Fundação Software Livre12 . A FSF foi fundada por Stallman, que convidou outros programadores interessados em ajudá-lo na tarefa de desenvolver o sistema operacional GNU. Os programas GNU não seriam de domínio público, mas qualquer pessoa poderia usá-lo e redistribuí-lo, isto com a condição de que o mesmo não tentasse restringir o acesso ao código original, e às modificações feitas. O objetivo principal que levou Richard Stallman a escrever o “Manifesto GNU” (STALLMAN, 2002a) foi o de pedir a participação e ajuda da sociedade. Através desse documento Stallman começava a deixar claro os valores ideológico que essa nova geração de produtores de software defendiam, os quais têm como princípios fundamentais as quatros liberdades defendidas pela FSF, supra citadas na Seção 5.1 deste capítulo. Cabe destacar novamente que, o valor ideológico de ser “livre” transcende a questão do programa ser distribuído gratuitamente ou mediante custo, uma vez que com a redistribuição de software GNU, a pessoa pode cobrar pelo ato de transferir uma cópia, ou pode dar cópias de graça. Além disso, as pessoas que entram nesse novo valor de produção de software, não pensam necessariamente em fazer algo de graça, mas sim objetiva algum outro proveito. Outro pilar dessa ideologia criada com o Projeto GNU refere-se a valorização do espírito do trabalho colaborativo pela comunidade de informática. Esses ideais sustentam que dificilmente um programador, ou mesmo uma equipe de programadores, precisariam criar sozinho, a partir do zero, todos os códigos necessários para o funcionamento de um programa. A partir do pensamento do reaproveitamento, da reutilização de um trabalho iniciado, da defesa dessa engenharia de software, tornou-se necessário a criação de uma licença específica para defender os direitos autorais do software. Em 1984 Richard Stallman demitiu-se do MIT (Instituto de Tecnologia de Massachussets), com o objetivo de que não lhe fosse proibido doar o GNU. Após isso fundou a FSF e instituiu um novo modelo de proteção, a licença GNU GPL (General Public License)13 , que possibilita ao usuário uma série de liberdades, como cópia, compartilhamento e utilização, ao mesmo tempo que permite ao autor a manutenção de autoria de seu código-fonte. Quando Stallman trabalhava no MIT, em 1971, com o grupo que usava software livre, observou que as empresas de informática distribuiam software livre, os programadores eram livres para cooperar entre si, e frequentemente faziam isso. Já no ano de 1980, a maioria dos aplicativos eram proprietários, esse fato mostrou-lhe a necessidade de criar o Projeto GNU, uma vez que haviam empresas que proibiam e impediam a cooperação entre os usuários. 12 FSF 13 A

- Free Software Foundation: http://www.fsf.org/ouhttp://www.gnu/org/. General Public License será apresentada em mais detalhes no Capítulo 6.


História e Filosofia do Software Livre

101

Partindo desses valores ideológicos, o Projeto GNU almejava criar um sistema operacional livre, compatível com o UNIX. Aproximadamente nos anos 80, o projeto havia conseguido escrever todos os componentes de software principais, com excessão do kernel. Em 1991, Linus Torvalds desenvolveu o kernel do Linux, através de nova filosofia de engenharia de produção, em que o compartilhamento com colaboradores torna-se o motor da produção. A combinação do Linux com o quase completo sistema GNU resultou em um sistema operacional completo: um sistema GNU baseado no Linux14 . É importante observar que o Projeto GNU não é limitado a sistemas operacionais. Desde o início, pretendeu fornecer uma gama completa de programas, tais como: editores de texto (EMACS), Compiladores GCC (GNU Compila Collection), o Shell Bash (BoumeAgain Shell), GNU File Utils (que fornece os comandos cp, ls e outros em Unix). Além disso, fazem parte do projeto GNU o ambiente gráfico GNOME e aplicativos como o Gimp, bem como ele foi o viabilizador da maior parte dos projetos software livre, inclusive o Linux. Anterior ao surgimento dos movimentos que defendiam o software livre na década de 80, já faziam parte do mercado de software uma outra concepção instituída na engenharia de produção. Nessa mesma época, o mundo de produção fechado era dominado pela IBM. Nos anos 80 a Microsoft começa a liderar e consolidar sua filosofia de produção proprietária e fechada. Conforme já mencionado, na concepção de software proprietário, são definidas as leis de propriedade intelectual que regulamentam os direitos autorais, ficando determinado que o usuário não pode copiar um programa sem a autorização (explícita ou implícita) do proprietário. Nesse contexto, não existe a “liberdade” cultivada pela forma de produção livre. Do contrário, a liberdade refere-se ao neoliberalismo, ou seja, aquela em que o Estado deve interferir o mínimo no comércio dos produtos, a não ser que seja para defender os direitos de propriedade (os direitos autorais). É possível afirmar que antes dos movimentos de software livre, a Microsoft detinha a hegemonia e atraia a maior atenção dos consumidores. A influência da Microsoft é tão grande no mundo da comercialização de software, que essa empresa tem sido interrogada pelo poder judicial por impôr um monopólio. Nesse sentido, quando o Linux aparece como uma nova proposta para a engenharia de software, o mesmo abre possibilidades e opções aos programas proprietários.

5.3

OUTRAS INSTITUIÇÕES E MOVIMENTOS DE SOFTWARE LIVRE

Muitos outros projetos faziam parte do cenário nascente do software livre, apesar de poucos desses serem tão explicitamente ideológico como o projeto GNU de Stallman. 14 Mais

detalhes sobre a história do SO GNU/Linux ver Seção 5.4.


102

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Como uma das primeiras organização de software livre, que não possuia a visão ideológica da FSF pode ser citado o Unix da Universidade de Berkeley15 , mais conhecido como BSD Unix. Essa distribuição BSD é uma reimplantação do sistema operacional Unix – até depois do ano 1970 havia sido um projeto de pesquisa conveniada pela AT & T e a UCB. O grupo BSD não fez acordo político sobre a necessidade dos programadores trabalharem juntos em compartilhamento uns com os outros. Mas esta idéia de trabalho compartilhado foi praticada com talento e entusiasmo, pela coordenação em um esforço distribuido e coordenado responsável por permitir a reescrita de bibliotecas, utilitários de sistema e o próprio kernel, em sua maioria por voluntários. No ano de 1998 foi fundada a The Open Source Iniciative (OSI)16 , por uma coalisão de programadores, e o termo código aberto é usado como uma alternativa ao movimento de Software Livre difundida pela FSF. Os membros da OSI perceberam que a difusão do “livre” trazia uma certa confusão que atrapalhava o campo de marketing para ser lançado no mundo das corporações. Sendo assim arguiam que a própria filosofia que prega a moral e os benefícios sociais de compartilhamento que fazem parte do Movimento Software Livre poderiam não serem bem vistos no mercado. Em linhas gerais, a OSI é uma instituição que visa o marketing para o software livre, mais do que uma desaprovação ideológica informal. Assim, a OSI ao eliminar a parte filosófica busca tornar visível a convicção de que o desenvolvedor de código concorda com o processo de sua abertura na busca de melhoria, assim elimina a má compreensão e os conflitos gerados pela razão direta do termo “definição livre”. A OSI oferece para muitas pessoas o vocabulário que elas procuram para falar do software livre como uma metodologia de desenvolvimento e estratégia de negócio, eliminando os aspectos relacionados a crença moral. Pode-se dizer, de certa forma, que a disseminação dessa facção do Movimento do Software Livre impulsionou o aumento da comunidade e o seu reconhecimento pela mídia e aceitação pelas corporações.

5.4

O GNU/LINUX

O exemplo mais conhecido do software livre, o qual inclusive tem sido o motivo causador da disseminação dessa nova forma de produção de software é certamente o sistema operacional GNU Linux. No ano de 1991, o sistema GNU estava em estágio avançado, faltava apenas um dos componentes mais importantes: o kernel do sistema. Neste momento começou a desenvolver um kernel baseado em uma arquitetura chamado Hurd17 . Porém, a 15 University

of California, Berkeley - UCB. da OSI www.opensource.org. 17 http://www.debian.org/ports/hurd/index.pt.html.

16 Site


História e Filosofia do Software Livre

103

arquitetura do Hurd, por ser de difícil depuração, apresentava problemas como instabilidade e baixa performace. Nesta mesma época, Linus Tovards deu início ao projeto de extender o Minix e implementar um kernel monolítico e mais completo. Há quem argumente que o Linux surgiu não apenas da competência técnica de Linus, mas de vários fatores juntos, como: pelo aproveitamento do HURD do GNU, as oportunidades deixadas pelo vácuo do BSD, em litígio na justiça com a AT&T, bem como a popularização da demanda de acesso à Internet por usuários leigos. Dando continuidade, em 1991, o estudante filandês Linus Tovards deparou-se com o problema de acessar remotamente o computador da Universidade Helsinki, onde estudara, a fim de fazer seus trabalhos no computador de sua residência. Ele procurou solucionar isto utilizando o Minix18 , que não apresentou ser poderoso suficiente para se conectar a um sistema Unix remotamente. Com isto, Linus começou a criar um emulador de terminais que funcionava por si só, sem necessitar de um sistema operacional. Esse emulador precisava de mais recursos a fim de cumprir os objetivos, o que impulcionou a criação de vários recursos típicos de um kernel de sistema operacional, com capacidade de lidar com tarefas simultâneas e gerenciamento de espaço em disco rígido. Quando Linus percebeu que o desenvolvimento do emulador estava com as funcionalidades de um sistema operacional, ele implementou as chamadas ao sistema Unix definidas pelo padrão POSIX19 , a fim de rodar alguns programas originais do sistema operacional GNU, como Bash que era compilado em outro computador executando o Minix. Após chegar neste estágio, Linus disponibilizou os fontes no servidor FTP da Universidade Helsinky, a fim de que fosse utilizado por outros estudantes que estivessem passando pelas mesmas dificuldades em conseguir fazer conexão remota. Depois ele anunciou que havia disponibilizado os fontes no grupo comp.os.unix da USENET, no ano de 1991. Com isto, a versão Linux 0.1 recebeu inúmeras contribuições de terceiros a ponto de tornar um programa auto-suficiente, não precisando mais do Minix para funcionar. Desta forma, a primeira versão foi disponibilizada em 1991 (versão 0.02). Mais tarde, em 1994 finalmente foi lançado o kernel versão 1.0. Entre as principais características do Linux, podem ser citadas com destaque:

Baixo custo: o Linux pode ser adquirido gratuitamente na Internet ou a baixo custo em lojas de informática ou mesmo em bancas de revistas. 18 Foi

criado por D. Tanembaum o sistema operacional acadêmico Minix clone do Unix. é a família de normas relacionadas definidas pelo IEEE (1003) e ISO/IEC (9945). A normalização das especificações POSIX surgiu de um projeto, desde 1985, cujo objetiva normalizar a API (Interface de Programação de Aplicativos) para software SO do UNIX. 19 POSIX


104

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Estabilidade: servidores usando Linux raramente necessitam de reinicializações por problemas do sistema operacional ou aplicativos. Segurança: erros de programação são corrigidos em tempo recorde quando comparados aos sistemas operacionais proprietários. Escalabilidade: pode ser configurado com facilidade para tirar o máximo de proveito de máquinas com vários processadores. Portabilidade: apesar de ter sido criado para a arquitetura Intel, o Linux pode ser instalado em várias plataformas de hardware, inclusive sistemas embutidos.

Posteriormente, o sistema Linux passou a ter a colaboração de grandes empresas, como: a IBM, a Sun Microsystems, a Hewlett-Packard e a Novell, ascendendo como principal sistema operacional para servidores. Atualmente, oito dos dez serviços de hospedagens mais confiáveis da Internet utilizam o sistema Linux em seus servidores Web. Além disso, o Linux tornou-se o SO capaz de funcionar no maior número de arquiteturas computacionais possíveis. Sendo inclusive utilizado em aparelhos variados desde supercomputadores, celulares, bem como, vêm aumentando sua popularidade no mercado de computadores pessoais. É importante destacar ainda que este sistema operacional Linux é distribuído sob GNU General Public License, com isso é permitido o acesso ao seu código (open source). Apesar de baseado em versões do UNIX (os sistemas UNIX são comerciais), o Linux não utiliza código desse sistemas, evitando-se assim qualquer tipo de relacionamento que proporcione custo ou quebra de patente. No mercado de software existem várias distribuições20 Linux, inclusive as que são comerciais, em que foram incorporadas funcionalidades específicas, como por exemplo, em operações críticas. A primeira distribuição de Linux é a Softlanding Linux System (SLS) criada por Peter MacDonald em meados do ano 1992. A SLS foi o primeiro lançamento a oferecer uma distribuição Linux abrangente, contendo mais que o kernel e utlitários básicos, incluindo TCP/IP e o X Window System. Durante este ano, a SLS popularizou-se e dominou o mercado até que os desenvolvedores tomaram uma decisão de mudar o formato de execução, o que não foi bem recebido pelos usuários. Após isto, Patrick Volkerding decidiu modificar o SLS ajustando e fazendo uma limpeza em seu código, posteriormente denominou esse trabalho final na distribuição Slackware. Similarmente, a frustração de Ian Murdock com o SLS fez ele criar o projeto Debian. 20 Uma

distribuição consiste em um conjunto de programas que são acrescidos ao kernel e uma filosofia de uso e administração.


História e Filosofia do Software Livre

105

Desta forma, o Slackware21 surgiu em abril de 1993. A Slackware é uma distribuição de Linux para uso geral e que tenta se aproximar ao máximo de outras versões de UNIX. Entretanto, usuários reclamam de sua forma de instalação de aplicativos no formato “tar.gz”. Em 1994, surge a distribuição RedHat22 com o formato RPM (RedHat Package Manager) para instalação de pacotes de software. As distribuições mais comuns são as criadas para propósito geral, ocupam além dos computadores caseiros, os da indústria, comércio, a fim de exercer a função de servidor de diversos serviços, como os de rede, arquivos e aplicações. Além de RedHat e Slackware podem ser citadas as seguintes distribuições: Ubuntu23 , Fedora24 , Debian25 , Mandriva26 e Gentoo27 . Além das várias distribuições Linux existentes, também há uma grande diversidade de aplicativos para este sistema operacional. Para maiores detalhes sobre esses aplicativos de uso residencial e pessoal, e de empresas, ver o Apêndice A deste módulo.

5.5

COMUNIDADE SOFTWARE LIVRE

A grande questão que inspira uma curiosidade geral sobre o tema software livre não gira somente em torno do como ganhar dinheiro, mas principalmente como os projetos software livre obtém sucesso. A discussão sobre esse tema é realmente muito complexa e pode-se dizer que conduzir um projeto software livre não é exatamente como conduzir um negócio. É possível intuir como seria difícil negociar constantemente a natureza de um produto, dado que neste tipo de projeto o grupo de voluntários encontra-se geograficamente disperso, de forma que muitos desses voluntários nunca encontraram-se presencialmente. Um projeto software livre também foge do escopo de conduzir uma organização não-lucrativa como uma ONG. Talvez todas estas formas possam ser comparadas com o funcionamento de um projeto software livre, mas não há igualdade, inclusive pode ser mesmo uma suposição a idéia de que um projeto software livre possa ser conduzido, o que é uma extrapolação. Experiências tem mostrado que um projeto software livre pode ser iniciado e mesmo fortemente influenciado por membros interessados. Porém, seus recursos não podem se tornar propriedade de um único dono, muito menos esse projeto consegue ser desativado unilateralmente, uma vez que podem existir pessoas espalhadas em várias partes do mundo com interesse em continuar a desenvolvê-lo. O fato do poder em um projeto software livre 21 http://www.slackware.com/. 22 http://www.redhat.com/. 23 http://www.ubuntu.com/. 24 http://fedoraproject.org/ 25 http://www.debian.org/index.pt.html. 26 http://madriva.com 27 http://gentoo.org.


106

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

estar descentralizado, de forma que todos têm direito, ao mesmo tempo que não possuem direito nenhum, traz uma dinâmica que causa um efeito interessante. Em linhas gerais, mais do que a infraestrutura tecnologia em si, as relações sociais são determinantes para o sucesso (ou o fracasso) de um projeto software livre. A complexidade na forma de organização dessas comunidades sugere a conclusão de que o software livre é desenvolvido sob processos muito mais profissionais e efetivos, o que resultam na geração de produtos de melhores qualidades do que em projetos de software proprietário. 5.5.1

Catedral e Bazar

Para explicar a incrível façanha que envolve o mundo de produção de software livre, Raymond em (RAYMOND, 1999a) caracterizou a produção de software em dois modelos: a Catedral e o Bazar. Por meios de verificações dos projetos de desenvolvimento do software livre, ele extrai algumas lições para que um projeto baseado no modelo Bazar seja bem sucedido. A principal fonte de referência nessa produção acaba por ser Linus Tovards com sua invenção do modelo de desenvolvimento do Linux. Ao longo do artigo, Raymond define como Catedral o modelo de produção de software fechado e com controle centralizado e estrito, com uma única liderança que determina os objetivos e direcionamentos do projeto. Por outro lado, no modelo Bazar, o desenvolvimentos de programa delega o máximo de poderes aos programadores dando-lhe liberdade de abrir o código. Num projeto desse modelo, o desenvolvedor faz aquilo que deseja, isso implica que há mais envolvimento no desenvolvimento do que no modelo Catedral, em que os programadores seguem um determinado projeto que lhe é delegado. Em (RAYMOND, 1999a), o autor afirma que no modelo Bazar existe uma “anarquia”, que todos falam ao mesmo tempo e cada um controla o seu próprio espaço. Pode-se afirmar que o desenvolvimento de software proprietário ocorre por meio de uma organização de Catedral. Essa organização geralmente é formada por um grupo de desenvolvedores, que trabalham no mesmo espaço físico e sob uma determinada gerência. Compete a esses desenvolvedores construir o programa, para isto precisam dedicar-se em tempo integral. Os projetos em que os mesmos trabalham não são escolhidos por eles, uma vez que é a gerência que determina qual tarefa devem fazer. O texto de Raymond pode ser entendido como um modelo de produção, uma engenharia de software livre. Algumas das lições desse texto não foram mencionadas, pelo teor demasiado técnico, outras, entretanto, mostram as raízes do sucesso de vários projetos de software livre. Assim, esta seção apresentará uma análise de algumas das lições extraídas de (RAYMOND, 1999a).


História e Filosofia do Software Livre

107

1 - Todo bom trabalho de software começa colocando o dedo na ferida de um programador.

Um projeto software livre é originado de forma diferente de um software proprietário, uma vez que a maioria desses projetos nascem da necessidade pessoal do autor, ou corporação, para criar o programa que atenda as suas necessidades vigentes. Por outro lado, projeto de software proprietário, geralmente parte do princípio que terceiros devem ter uma necessidade e estariam dispostos a comprar uma versão para uso. As corporações que desenvolvem produtos fechados utilizam o marketing para difundir a idéia da “criação de necessidades”, ao invés de buscar saber quais necessidades têm o mercado com relação a seus produtos. Um dos fatores de sucesso dos projetos software livre é que eles partem de necessidades reais, muitas vezes sentidas pela comunidade de usuário e desenvolvedores. Assim, os projetos de software no estilo Bazar originam-se a partir de algum desejo de fazê-lo pelo desenvolvedor, o que acaba conseqüentemente envolvendo os programadores de uma forma mais profunda nas realizações. 2 - Os bons programadores sabem o que escrever. que reescrever (e reusar).

Os melhores sabem o

Essa lição ensina que é quase sempre mais fácil partir de uma boa solução parcial do que começar o projeto apenas a partir do interesse dos desenvolvedores. O Linux, por exemplo, surgiu das mudanças do código e idéias do Minix. No modelo Bazar, a liberação do código fonte funciona como um compartilhamento de conhecimentos e experiências. Essa prática acaba permitindo que um projeto estabeleça suas bases em outros, criando um ambiente rico em reutilização de código. Nesse sentido, o autor de um código deve oferecer à comunidade algo real, executável, sobre o qual outros desenvolvedores têm condições de fazer evoluir novas idéias e melhorias. No princípio, o líder ou autor de um projeto muitas vezes precisa fazer trabalhos pesados de desenvolvimento, alteração de bugs, documentação, avaliação de contribuições e principalmente manutenção da web site do projeto. Com o tempo, as habilidades de envolvimento do líder do projeto permitem aumentar a massa crítica de desenvolvedores e usuários, de forma que as tarefas podem ser distribuídas entre os voluntários. Cabe destacar que, à medida que os novos voluntários vão chegando, novas necessidades emergem, a ponto delas conflitarem-se com a idéia original do criador e esta inclusive não será mais adequada para o projeto. Porém, para que o projeto seja bem sucedido, todas as idéias precisam ser bem acolhidas e exploradas pelos interessados a ponto da comunidade decidir ou não por sua incorporação no programa. Toda esta abertura em expor e explorar as idéias traz mais qualidades às idéias que irão sobreviver à avaliação da comunidade e conseqüentemente sua incorporação no programa.


108

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

3 - Planeje jogar algo fora; você irá, de qualquer maneira.

O desenvolvedor de programas deve partir do princípio que se deseja fazer algo certo, assim é preciso estar preparado para começar tudo novamente pelo menos uma vez. Projeto que encoraja a troca de código percorre o caminho natural para a sua evolução. Nessa lição, o modelo Bazar destaca que no desenvolvimento de programas, as idéias possuem uma dinâmica que é o motor da produção. A possibilidade de obter idéias de outros desenvolvedores faz com que o projeto evolua e adquira novas funcionalidades. 5 - Quando você perde interesse em um programa, sua última obrigação é fazer com que ele seja entregue para um sucessor competente.

Na produção de software livre, os desenvolvedores, por abraçarem um projeto que é de seu desejo, o fazem com responsabilidade mais profunda do que quando esse é realizado em modelos fechados, em que um empregador determina ao desenvolvedor sua tarefa. Esse senso de responsabilidade garante uma melhor qualidade de produção que é freqüentemente adotada na maioria dos projetos software livre. Assim, a liberação de um código fonte é a melhor forma para que um bom projeto tenha continuidade. 6 - Tratar seus usuários como co-desenvolvedores é o caminho mais fácil para uma melhora do código e depuração eficaz.

Raymond afirma que a maior contribuição do projeto do Linux, não refere a construção do Kernel, mas sim a criação de um novo modelo de desenvolvimento de produção de software. Nesse novo modelo, as liberações de desenvolvimento aberto, quanto mais usuários obtiverem o código fonte da distribuição, mais soluções podem surgir para os bugs. Por conseguinte, os usuários comuns se deparariam com menos erros possíveis para um bom desempenho do software. 8 - Dada uma base grande o suficiente de beta-testes e co-desenvolvedores, praticamente todo problema será identificado rapidamente e a solução será óbvia para alguém.

Essa lição é conhecida também como a “Lei de Linus”. Raymond destaca que a grande descoberta de Linus se refere a metodologia de produção de software, a qual tem como princípio que para evitar bugs a melhor forma consiste na liberação rápida e freqüente do código fonte através da Internet. Nessa lógica, a parte crítica do desenvolvimento de software, ou seja, a depuração segue o princípio de que quanto mais usuários estiverem testando a execução de um programa, a origem de seus bugs podem ser encontrados e


História e Filosofia do Software Livre

109

as correções serem feitas. Uma vez que o código fonte encontra-se disponível isso permite realizar uma investigação mais profunda a ponto de se chegar na origem do problema, até conseguir propostas de soluções. Além disso, a independência em que os usuários descobrem as origens de um mesmo bugs permite propor soluções diferentes para ele. Como geralmente há grande quantidade de colarobadores empenhados na depuração de bugs, isso permite que vários programadores estejam trabalhando no mesmo problema, havendo duplicação de trabalho. O lado positivo de trabalho duplicado é que aumenta as chances de ter pelo menos uma solução de qualidade aceita e incorporada como parte do software. Porém, poderia ser questionado se não seria importante que a tarefa de depuração de bugs tornasse mais formalizada, a fim de evitar problemas de desperdício de recursos humanos, pela duplicação de trabalho. Experiências com projetos de software livre bem sucedido dizem que não é positivo, uma vez que o controle desta tarefa teria custo elevado, com a contratação de um gerente. Além disso, essa prática de controle poderia dispersar colaboradores talentosos em depuração de bugs. Estima-se que os esforços duplicados nesse trabalho causam poucos prejuízos, uma vez que essa prática não é comum e quando isso ocorre, as diferentes soluções propostas mostram-se necessárias para expor problemas mais críticos, sendo até benéficos dentro de um projeto complexo. O tratamento dos “erros” pelos desenvolvedores, nessa lógica, marca a diferença fundamental entre o estilos Bazar e Catedral. Nas Catedrais, os projetos de softwares são construídos em um tempo mais longo, do que o previsto para o término, portanto custam mais caros. Os erros e os problemas de desenvolvimento são de difíceis soluções, levando meses de exames minuciosos por poucas pessoas dedicadas para encontrar as soluções. As versões são liberadas em longos intervalos de tempo, sem que os programas apresentem completamente adequadas para o usuário, mas dentro do prazo estipulado pela gerência do projeto. Nessa organização Catedral, o erro pode ser conhecido há anos, sem que sejam reparados, uma vez que a equipe de desenvolvedores estão corrigindo o que consideram mais críticos. No modelo Bazar de produção de software, os desenvolvedores estão dispersos, a maioria deles trabalhando em tempo parcial, numa dinâmica que permite entrar e sair do projeto, conforme a própria conveniência e interesse. O projeto não está centralizado sob uma gerência, no sentido de que ninguém determina qual desenvolvedor será responsável por quais tarefas, assim cada membro do grupo faz o que bem desejar no projeto. É bem provável que esses desenvolvedores nunca encontraram-se pessoalmente, sendo a comunicação mediada entre eles por meios eletrônicos, como: listas de discussão, e-mails ou via discussões em IRC. O erro é assumido como um fenômeno trivial: simplesmente eles tornam-se triviais muito rapidamente quando expostos para centenas de ávidos co-


110

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

desenvolvedores, depurando a cada nova liberação. Na lei de Linus, os recursos humanos envolvidos acabam sendo coordenadores do processo de produção junto a outros desenvolvedores (que encontram espalhados em diferentes locais geográficos), ajudando a concretizar a tarefa de levar o projeto adiante. Como a organização Bazar é praticamente formalizada pela Internet desde seu princípio, um projeto software livre precisa estar bem apresentado em um web site, no sentido de trazer tanto esclarecimento sobre o projeto, quanto diretividade, a fim de que possa envolver com facilidade voluntários interessados. Nesse sentido, uma outra condição necessária ao bom funcionamento de um projeto no modelo Bazar é a de que as últimas versões desenvolvidas e a correções realizadas de um programa estejam disponibilizadas em web site de forma a facilitar o acesso. Essas atualizações permitem que os desenvolvedores acompanhem corretamente as correções e otimize o tempo e esforço para auxiliar em novos reparos. Além deste web site ser preparado para os desenvolvedores, eles precisam atender a audiência de usuários que muitas vezes podem utilizar o software e fazer a validação das correções, assim como validar o funcionamento do software original. Este processo permite que os desenvolvedores possam desprender seus tempos e esforços no desenvolvimento de novas funcionalidades.

5.6

LIDERANÇA DE PROJETO

Uma dúvida bastante comum sobre projeto software livre refere-se a quem toma as decisões de correções, melhorias a serem incorporadas no programa, quando novas versões podem ser disponibilizadas. Para que o projeto se torne bem sucedido, alguma forma de governança ou gerenciamento é necessário para coordenar as inúmeras atividades. Segundo afirma (FOGEL, 2005), por mais que um projeto software livre em sua dinâmica aparenta ser democrático, a maioria deles acabam exercendo sua governança baseada em dois modelos:

Ditador Benevolente: Em geral é o fundador do projeto, na comunidade destaca-se não por habilidades técnicas, mas por sua capacidade de sensibilizar outras pessoas para juntar-se ao projeto, mediar conflitos e distribuir atividades satisfatória para todos. É interessante que o ditador raramente exerce sua autoridade impondo uma decisão sem que a comunidade tenha chegado a um ponto comum de acordo. Meritocracia: É um desenvolverdor que se destaca na comunidade, por isto é promovido em uma hierarquia que dá mais liberdade para modificar o código, sem necessitar de aprovação de outrem.


História e Filosofia do Software Livre

111

No modelo de desenvolvimento Bazar, a necessidade de uma liderança faz-se mais no sentido de seguir a comunidade, trabalhando em prol de seus anseios. O interessante que tanto no caso do ditador benevolente, como da meritocracia, a gerência não pode ser “imposta” ou “nomeada” por um patrocinador. Mesmo no caso do ditador benevolente que em geral é o fundador do projeto, ele precisa demostrar constantemente para a comunidade que ainda merece o cargo e que é capaz de cumprir satisfatoriamente as suas solicitações. Neste sentido, a vigilância da comunidade acaba por manter sempre “a pessoa mais bem preparada para esse posto”, ao mesmo tempo que motiva os desenvolvedores a manterem uma postura coerente com o projeto. Apesar do líder de um projeto ser muito importante para o alcance de seu sucesso, a liderança exercida por pessoas com capacidades inatas para isto, segundo (RAYMOND, 1999a) não é mais importante que o modelo Bazar ou a dinâmica da comunidade. O autor argumenta esta afirmação dizendo que os projetos software livre têm demostrado condições de sobreviver a mudanças de liderança e inclusive de patrocínio. Como nos projetos software livre, o código fonte de um programa é desenvolvido e mantido pela comunidade de voluntários e está disponível a todos, a curiosidade dos leigos refere sobre como esses voluntários e líderes conseguem se manter envolvidos e motivados. Estudos apontam que a maioria dos projetos de software abertos são de pequeno tamanho e a maior contribuição vem do seu próprio autor que precisa desde o princípio mostrar o projeto vivo em site, com entusiasmo e de forma atraente para envolver novos colaboradores. Pode-se dizer que para um projeto de software livre deslanchar desde seu princípio ele precisa tornar-se popular e atrativo, a fim de que consiga aglutinar uma comunidade formada por profissionais. Desta forma, o papel desempenhado pelo mantenedor ou líder (que na maioria precisa investir muito mais tempo e dedicação que os demais voluntários) é fator crítico de sucesso. A liderança precisa ser exercida claramente, muitas vezes com estrutura hierárquica para ser realizada a contento. É preciso estarem claras as regras de subordinação entre o mantenedor, os líderes e os demais contribuintes, para que o projeto alcance sucesso. Um exemplo emblemático é o caso do Linux, com a liderança exercida por Linus Tovalds, decidindo que patches serão aceitos ou não na versão do kernel. Apesar da hierarquia não ser formal, ela é aceita por fatores como competência e meritocracia. Também faz parte deste contexto investigar como os líderes envolvidos, mantenedores e voluntários conseguem motivações para permanecerem em um projeto, uma vez que aparentemente não se obtém ganhos financeiros. Pesquisas com a comunidade de desenvolvedores apontam algumas pistas incipientes, como: • Forte motivação intrínsica do desenvolvedor, que sente-se livre para desenvolver atividades que considera agradáveis. Ao trabalhar em um projeto que não tem pressão de prazo e horas estipuladas, nem cobranças por tarefas, o limite da com-


112

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

petência e do desafio é determinado pelos próprios desenvolvedores. Além disso, também conta a motivação causada pelo senso de participação em uma comunidade, com suas obrigações e recompensas de reconhecimento pelos pares. • Motivação extrínseca referente a compensações da evolução profissional. Dependendo do projeto envolvido, há oportunidade para desenvolvedores serem reconhecidos internacionalmente, sem contar que eles podem estar evoluindo tecnicamente (chance de desenvolver técnicas de programação que não podem ser obtidas em trabalhos regulares). Empresas têm considerado a participação ativa de desenvolvedores em projetos de software livre, verificado pelas contribuições aceitas no repositório de código e nos créditos dos seus colaboradores, como sendo tão ou mais valiosas do que cursos de especialização, certificações profissionais e mesmo experiência no desenvolvimento de software dentro de empresas. • Motivação pela compensação financeira, pela oportunidade de explorar serviços em torno do código aberto, ver mais detalhes no Capítulo 7.

5.7

IMPORTÂNCIA DA POSSIBILIDADE DO FORK

Em projetos software livre, quando um ou vários desenvolvedores perdem a motivação em continuar contribuindo com um projeto há possibilidade da criação de um fork. Por fork compreende o processo de bifurcação (ou ramificação) em que um desenvolvedor ou um grupo de desenvolvedores abandonam um projeto, utilizando seu código (ou parte dele) para iniciar outro projeto, de forma independente. Com o fork portanto, surge uma nova linha, técnica e objetivo de desenvolvimento, o software é originado a partir do anterior, sem que ocorra a descontinuidade desse último. Em projetos de software livre, o risco de fork sempre existe e, de certa forma, é ele que ajuda a garantir em muitos pontos a coesão do grupo, por mais estranho que isso pareça. O fato é que a possibilidade do fork faz com que os desenvolvedores busquem chegar a um consenso sobre os rumos do projeto, a fim de evitar esse tipo de cisão na equipe. Além disso, a possibilidade do fork permite que o poder do ditador benevolente seja minimizado, pois caso ele exerça seus poderes de forma arbritária estará induzindo os insatisfeitos a criarem um fork do projeto onde possam serem mais “ouvidos”. Na história do software livre, alguns forks são relativamente importantes, por mostrarem situações e momentos decisivos no decorrer de um projeto. Esse é o caso do EGCS , por exemplo, que foi um fork do GCC (GNU Compiler Collection), o conjunto oficial de compiladores e ferramentas de desenvolvimento da GNU. Desenvolvedores insatisfeitos com a pouca evolução do GCC partiram para a criação de uma versão própria, mais ativa que o projeto original e foi depois considerado o projeto GCC oficial. Mais recentemente, tem-se


História e Filosofia do Software Livre

113

o caso do Xorg28 , que é um fork criado a partir do XFree8629 . Nesse caso, o motivo de criação do fork refere-se às mudanças drásticas na forma de licenciamento do XFree86, que não foram aceitas pela comunidade, de uma forma geral. Em alguns casos, o fork pode acabar por sobrepujar o projeto original de tal forma que esse acaba sendo esquecido, como o caso do Sodipodi30 , abandonado pela comunidade em prol do Inkscape31 . O Beryl32 surgiu inicialmente como uma ramificação do Compiz33 , uma espécie de fork interno. Esse tipo de procedimento é bastante comum em produção de software: desenvolver um fork oficial, com o objetivo de testar novas idéias e recursos, sem afetar a estabilidade do produto original. Isso ocorre, por exemplo, com o kernel do Linux, em que Andrew Morton mantém um conjunto de patches experimentais para a última versão do kernel. Esse também foi o propósito original do Beryl, inicialmente denominado Quinnstorn. Entretanto, os desenvolvedores do Compiz recusaram a incorporar as alterações propostas pelo Quinnstorn, os desenvolvedores desse projeto resolveram fazer uma diferenciação efetiva, e, em setembro de 2006, lançaram-no com o nome de Beryl. Em outubro de 2007, após negociações, os dois grupos reunificaram os projetos, com o nome de Compiz - Fusion, sendo que cada grupo se foca em uma parte do projeto. Conforme examinado em (FOGEL, 2005), um fork em projeto software livre é considerado ruim porque dispersa os recursos da comunidade. Em uma comunidade em que seus colaboradores permanecem unidos, comprometido e seguindo os mesmos princípios, as chances de alcançar seus objetivos são superiores do que quando os membros começam a competir entre si. Desta forma, a vantagem é maior quando se consegue manter a comunidade coesa em busca de cumprir com seu compromisso do que quando cada um segue princípios divergentes originando um fork. Por fim, a compreensão da complexidade que é o processo de desenvolvimento de código aberto abre novas oportunidades para que empresas de TI possam experienciar essa prática. Nesse sentido, para aquelas empresas que não possuem capital suficiente necessário para se fixar no mercado, com esse modelo de desenvolvimento colaborativo abre-se uma possibilidade, enquanto é inviável no formato de empresa tradicional. E desta forma, cada vez mais no mercado abrem-se oportunidades de interações entre projetos de código aberto e empresas privadas de software. Assim, o software livre ultrapassa a visão romântica e de movimento ideológico para ser encarado como estratégias de negócios sus-

28 http://wiki.x.org. 29 http://www.xfree86.org. 30 http://www.sodipodi.com/index.php3. 31 http://inkscape.org/. 32 http://beryl-project.org/. 33 http://compiz.org/.


114

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

tentáveis e complementares aos modelos tradicionais da indústria de software. O Capítulo 7 aborda com detalhes algumas estratégias de negócios com código aberto.


6 LICENÇAS DE USO EM SOFTWARE LIVRE

Os direitos e obrigações de um usuário sobre um software são estabelecidos em um contrato denominado ‘licença de uso’. No caso do software livre também existem suas licenças, as quais impedem que seus produtos possam ser transformados em proprietários. São as licenças que permitem o que um usuário pode fazer com um software é que determinam se um software é aberto ou livre. Ao longo deste capítulo os leitores podem perceber as nuanças que separam cada licença, as quais são estabelecidas pelos limites de sua permissividade.

6.1

O SIGNIFICADO DE COPYLEFT

Conforme já comentado no Capítulo 5, quando Richard Slallman criou a FSF, no ano de 1985, sua preocupação maior consistia em impedir que as liberdades de modificar e distribuir os códigos fontes de um programa fossem posteriormente removidas. Nesta época, os fabricantes de software tinham como prática incorporar aos seus produtos código e tecnologia desenvolvidas pela comunidade, em seguida redistribui-los sob licenças que impediam a comunidade de prosseguir beneficiando-se deste código. Este problema foi resolvido com a criação do mecanismo denominado copyleft que instituiu a permissividade a cópia sem que o autor ou o desenvolvedor do produto copiado perdesse seus direitos autorais. Na realidade, o objetivo maior do copyleft é impedir uma apropriação indevida de código disponibilizado gratuitamente. O uso de uma licença com copyleft em um software livre impede que ele seja colocado em domínio público. Além disso, ele também permite que as pessoas compartilhem o programa e suas melhorias, se estiverem disponibilizadas. O que significa que os programas de software livre, cuja licença não possui copyleft, podem ser transformadas em software proprietário por pessoas nãocooperativas. O exemplo mais significativo de licença com uso de copyleft é a Licença GPL (General Públic License), discutida em detalhes na próxima seção.


116

6.2

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

GPL - LICENÇA PÚBLICA GERAL GNU

A licença de soffware livre mais conhecida e utilizada é, com certeza, a GNU General Public License1 ou GNU GPL. Essa licença tem como princípio básico garantir que qualquer modificação implementada em um programa regido por ela deva ser devolvido à comunidade. Esse fato faz com que a GPL tenha um caráter virótico, uma vez que deve ser aplicada a qualquer programa derivado do código fonte de um software liberado sobre essa licença. A difusão da GPL faz com que não seja incomum perceber uma falsa associação, que induz a pensar que todo software livre é distribuído sob a GPL, porém existem diversos aplicativos importantes utilizando outros tipos de licenças. É interessante observar que essa falsa associação, principalmente entre os mais leigos, às vezes extende-se ao ponto de se supor que todo software GPL faz parte do projeto GNU. Entretanto, existem regras rígidas para que um programa possa ser considerado como parte do Projeto GNU e receber o aval da Free Software Foundation. De qualquer maneira, a GNU GPL é, com certeza, a mais importante licença de software livre. Dentre as diretrizes estabelecidas por ela, destacam-se: 1. O usuário tem direito de acesso ao código fonte, ou seja: o programa compilado deve ser distribuído com o código fonte, ou o usuário deve ser informado sobre como ter acesso a esse código por um custo não superior ao da distribuição física do material. 2. O usuário tem o direito de copiar e distribuir o código fonte e executável de um programa, desde que essas cópias sejam acompanhadas de aviso de direitos autorais e uma cópia da licença (ou informações claras sobre onde é possível obter a licença). 3. O usuário pode modificar o código fonte para que o programa atenda suas necessidades, desde que os arquivos modificados contenham a data e autoria das modificações. Além disso, se o produto gerado com essa modificação for distribuído ou publicado, isso deve ser feito sob a licença GPL. 4. Apesar de não estar explícito no texto da licença, o produto gerado por um programa GPL não precisa ser liberado sob licença GPL. Assim, a licença permite ao usuário cobrar por produtos, suporte ou distribuição de um programa GPL. É possível dizer que a GPL é um instrumento legal que implementa o conceito de copyleft. Dessa forma, a GPL estipula as quatro liberdades que formam a definição de software 1 GPL

- Licença Pública Geral GNU veja esta licença na integra em: http://www.fsf.org/licensing/ licenses/gpl.html .


Licenças de Uso em Software Livre

117

livre pela FSF, conforme especificada na Seção 5.1. Por fim, a licença GPL estipula que qualquer forma de redistribuição do código deve permitir aos novos usuários todos os direitos concedidos pela licença original. Ou seja, não se pode eliminar alguma das liberdades dos usuários, ou mesmo criar novas liberdades de forma que seja descaracterizado o sentido do software. Desfa forma, os direitos que a GPL pretende preservar devem permanecer intactas sem estabelecer portanto algum tipo de permissividade extra. É importante observar que a GPL foi criada justamente para proteger a apropriação pelos fabricantes dos programas do projeto GNU a ponto de tornarem-se proprietários, conseqüentemente impedindo que a comunidade desse continuidade ao desenvolvimento do projeto. Como destacado por (FOGEL, 2005), algumas licenças livres permitem que os códigos protegidos por elas possam ser usados em programas proprietários. Essas licenças não são, portanto, compatíveis com a GPL. Entre as licenças com essas características, encontram-se a Licença Apache, a Licença X Consortium, a Licença Estilo-BSD, e a Licença Estilo-MIT. A GPL diz claramente em seu texto que é permitido cobrar pelo ato físico da transferência de cópia do software protegido por ela, bem como pela venda de proteção de uma garantia. Além disso, a GPL aplica-se apenas ao processo de cópia, modificação e distribuição, não especificando outros serviços, como por exemplo, no suporte ou documentação. Dessa maneira, um programa GPL pode ser comercializado de diversas formas, tais como: pela venda de suporte ao software, venda de serviço de empacotamento (gravação em CDs, etc.), venda de garantia, treinamento de recursos humano, entre outros. No caso da cobrança pela distribuição de aplicativos GPL, a licença alerta que isso pode ser feito, desde que seja publicado um aviso de direitos autorais, uma notificação sobre a exoneração da garantia, bem como seja enviado uma cópia da licença junto com o programa. Além disso, a distribuição do software deve incluir o seu código fonte ou uma oferta para sua distribuição, por um custo não superior ao da distribuição física do mesmo. Dessa maneira é importante deixar claro que software livre não implica em software gratuito, apesar de que isso costuma ser a principal bandeira levantada sempre que ocorre uma migração. Pode-se cobrar pela venda de software livre, seu treinamento, suporte, manuais impressos, entre outros, o que de certa maneira é a forma de sustentação de muitas distribuições comerciais. Na abordagem deste módulo, a gratuidade do software livre, além de falsa (pois gasta com a mídia, com o uso de Internet, etc.) seria a menor de suas vantagens, podendo ser citadas, por exemplo: a disseminação e democratização de conhecimento e apropriação de tecnologia, como vantagens mais significativas. Ainda, no que diz respeito à proteção dada pela GPL e ao seu uso comercial, torna-se importante fazer a distinção entre: produto derivado e agregado. Conforme especificado na licença, a GPL não cobre os produtos de um software, a não ser que esse produto inclua


118

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

trechos do código fonte de um programa protegido pela GPL. Isso quer dizer que uma imagem editada num programa licenciado pela GPL, ou um livro editado num processador de textos também licenciado pela GPL, não precisam ser licenciados sob a GPL. Ou seja: um produto de um aplicativo GPL só precisa ser obrigatoriamente licenciado pela GPL se esse produto for derivado de outro produto GPL, incluindo trechos de seu código fonte. Além disso, a GPL fala claramente que aplicativos licenciados pela GPL podem ser distribuídos com aplicativos com outras licenças, desde que haja clara distinção entre o que adota e o que não adota a GPL. Isso permite, por exemplo, que as empresas que mantém as distribuições comerciais de Linux incluam aplicativos proprietários em seus CDs, como o Acrobat Reader, junto com aplicativos protegidos pela GPL. Desde o início do ano de 2006, vem ocorrendo o processo de revisão da GPL, de forma que em julho de 2007, a versão 3 da GPL foi oficializada pela Free Software Foundation. Algumas mudanças na nova versão da GPL têm a intenção de reduzir confusão registradas ao longo de anos de uso da versão 2 da GPL, publicada em 1991, bem como tornar mais amenas proibições que já não fazem mais sentido. Além disso, havia o risco trazido pelas crescentes ameaças por uso de mecanismos de propriedade intelectual (DRM e patentes), o que também impulsionou a elaboração de uma versão atualizada da GPL no que se refere aos seguintes aspectos: • Esclarecimento de pontos ambíguos das versões anteriores; • Na versão 3 é permitido baixar código, programa licenciado em redes P2P sem fornecer o código fonte, desde que seja mencionado onde os fontes podem ser adquiridos • A distribuição de binários em mídias tangíveis( cds, dvds, etc) e dos fontes pela Internet é violação na v2. A v3 admite isso, mas a responsabilidade de distribuir os fontes é imposta a quem fizer esse tipo de distribuição de binários. • A instalação do software em memória não modificável (ROM) seria infração da licença GPLv2. A GPLv3 esclarece que isso é permitido, pois a restrição à modificação não é imposta pelo distribuidor, mas sim pela natureza da memória. • A GPLv3 possibilita combinação com código sob a Licença Apache 2.0. • Proteção do software livre contra abusos, principalmente no que diz respeito ao efeito das patentes de software, bem como a prática de DRM (Digital Rights Management). Neste texto, a GPL v.3 não será abordado em profundidade, uma vez que existem várias polêmicas sobre alguns de seus aspectos. O próprio Linus Torvalds tem criticado itens que constam desde as versões drafts liberadas ao público. Além disso, a versão definitiva desta licença foi liberada muito recentemente (29/07/2007) e ainda existem várias discussões


Licenças de Uso em Software Livre

119

sobre seu impacto legal, sua adoção por projetos de software livre em substituição a versão GPL v.2. Porém, este tema será amplamente debatido em fóruns de discussão da disciplina. Portanto, para um acompanhamento das discussões sobre a GPL v3 recomenda-se uma visita ao seu site oficial2 .

6.3

LICENÇA PÚBLICA GERAL MENOR DO GNU

A GPL, primeiramente denominada Library General Protection License, atualmente Lesser General Públic License (LGPL) ou Licença Pública Geral Menor do GNU, é uma licença de software livre que concede as quatro liberdades defendidas na GNU-GPL, porém seu uso é indicado para algumas bibliotecas de software, ao invés de programas executáveis. O objetivo desta licença consiste permitir que software proprietário seja construído para executar sob uma base de software protegida pelo copyleft, possibilitando, por exemplo, que o código proprietário possa ser ligado a código distribuído sob a LGPL, sem infringir a licença. Esse é o caso, por exemplo, da glibc, uma biblioteca básica e utilizada por praticamente todos os aplicativos do Linux. Como ela encontra-se licenciada sob a LGPL aplicativos proprietários, como Acrobat Reader podem fazer uso das funções implementadas nesta biblioteca sem estar infringindo sua licença. De uma maneira simples e resumida, pode-se dizer que a principal diferença entre a LGPL e a GPL é que um desenvolvedor pode incluir binários licenciados sob a LGPL em seus aplicativos proprietários, sem infringir a licença. A LGPL foi pensada para ser utilizada em bibliotecas de programas, entretanto, pode ser mais recomendado utilizar a GPL, se não houver necessidade de ligar uma biblioteca com aplicativos proprietários. Assim, quando não houver essa necessidade, deve-se optar pela GPL, pois isso faria com que qualquer aplicativo utilizando a biblioteca seja também distribuido sob essa licença.

6.4

COMPATIBILIDADE COM A LICENÇA GPL

Bastante próxima da linha divisória entre as licenças compatíveis e incompatíveis com o software proprietário encontra-se a linha que separa as licenças que são compatíveis ou não compatíveis com a GPL. Dado que o primeiro objetivo dos autores da GPL é a promoção do software livre, eles construiram essa licença de forma a tornar impossível que seja misturado código GPL dentro de programas proprietários. Conforme pode ser

2 Licença

Pública Geral versão 3, URL http://gplv3.fsf.org/.


120

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

verificado na GPL (FREE SOFTWARE FOUDATION, 1991), existem duas cláusulas que especificam essas exigências: • Qualquer trabalho derivado, ou seja, algum trabalho que está contido entre o código da GPL - ele deve também ser distribuído sobre a GPL; • Nenhuma restrição adicional pode ser colocada na redistribuição de outro trabalho original ou um trabalho derivado. A linguagem exata é: “Você não poderá impor quaisquer restrições adicionais ao exercício, pelos receptores, dos direitos concedidos por este instrumento. Você não tem responsabilidade de promover o cumprimento por parte de terceiro desta licença.” Estas especificações proporcionam o efeito bem sucedido da GPL em tornar a liberdade contagiosa. Uma vez que um programa é copiado sobre a GPL, seus termos de redistribuições são virais - eles são passados a diante sempre que o código for incorporado, tornando efetivamente impossível usar código GPL em programas de código fechado. Contudo, essas mesmas cláusulas também tornam a GPL incompatível com outras licenças livres. A forma usual que isto acontece é que a outra licença imponha um requerimento - por exemplo, uma cláusula de crédito requerendo que o autor original seja mencionado de alguma maneira - o que é incompatível com os termos da GPL “Você não pode impor qualquer restrição adicional”. Do ponto de vista da FSF3 , essas conseqüências de segunda ordem são desejáveis, ou ao menos não lamentáveis. A GPL não somente conserva seu software livre, mas efetivamente torna o seu software um agente que puxa outro para também garantir a liberdade. A compatibilidade com a GPL é um assunto crítico quando da escolha de uma licença. Conforme já mencionado, a GPL é a mais popular licença de código aberto, o que pode ser confirmado na Figura 6.1. Nessa figura, é possível verifica que a GPL é a licença adotada em 68% dos programas catalogados na Freshmeat4 , e a próxima licença mais usada é adotada em apenas 6% dos aplicativos. Assim, caso pretenda-se que um dado código seja “linkado” com código GPL - e existe muito código GPL na Internet, deve-se adotar uma licença compatível com a GPL. É importante observar que muitas das licenças de código aberto compatíveis com a GPL são também compatíveis com licenças proprietárias: isto é, código sob uma licença desse tipo pode ser usada em um programa GPL, mas também pode ser usado em um programa proprietário. Naturalmente, os resultados dessas misturas não seriam compatíveis entre si, dado que uma seria sob a GPL e a outra seria sob uma licença de código-fechado. Mas esta 3

A FSF mantém uma lista mostrando quais licenças são compatíveis com a GPL e quais não são, veja em: http://www.gnu.org/licenses/license-list.htm. 4 http://freshmeat.net/.


Licenças de Uso em Software Livre

121

Figura 6.1: Adoção de Licenças em Projetos da Freshmeat – Fonte: (STATISTICS. . . , 2007)

restrição aplicaria-se somente para os trabalhos derivados, não para o código distribuído inicialmente.

6.5

LICENÇAS INCOMPATÍVEIS COM A GPL

Algumas licenças associadas a programas com código fonte disponibilizado permitem ao usuário ver, e em alguns casos até modificar esses programas, mas sem poder redistribui-los e não possuindo nenhum direito sobre as alterações. Esse é o caso de licença como: a Licença Pública de Código-Fonte da Apple (APSL). A APSL concede direitos excessivos à Apple, pois o usuário não pode utilizar uma versão com modificações que não estejam autorizadas pela Apple, que pode inclusive fechar o código de um programa APSL a seu critério. Uma licença altamente restritiva nesse formato está sendo utilizada pela Microsoft para permitir que algumas empresas e universidades tenham acesso ao código fonte do Windows, num esforço para tentar conter os avanços do software livre. A licença de código compartilhado da Microsoft, inclusive, pode ser considerada uma “armadilha”, pois disponibiliza partes selecionadas do código, sem permissão de uso para divulgar as informações obtidas ou desenvolver programas concorrentes. Essa disponibilização parcial do código fonte apenas atende interesses da Microsoft em manter seu poder sobre a indústria de


122

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

software. Com isso, é possível retornar a uma discussão anterior, a de que não basta disponibilizar o código fonte de um programa para que ele se torne software livre. Se a liberação desse código é cercada de restrições, o que geralmente se tem é um código proprietário que tenta mostrar-se mais aberto a seus usuários, sem na verdade sê-lo.

6.6

PATENTES

Conforme tem sido discutido as licenças de software livre são baseadas nas leis de direitos autorais, mas não é difícil encontrar no mercado fabricantes de software buscando melhorar a sua receita oriunda da venda de licenças de software pelo uso das patentes. No geral, uma patente é um conjunto de exclusividade de direitos concedidos pelo Estado que garante ao criador da idéia (inventores) a proteção contra a exploração comercial de sua criação, por período determinado. Algo que esteja patenteado garante direitos exclusivos de uso da invenção a quem patenteou, os quais referem-se a prevenção de outros fabricantes usarem, venderem, oferecerem à venda ou importar/exportar a referida invenção. Existem toda uma polêmica sobre patentes de software. Mesmo em países com forte respeito ao uso de patentes e direito autoral fazem restrinções a uso de patente de software. Nos Estados Unidos, software não era patenteado até início da décadas de 80, quando em 1981, um caso levado à Suprema Corte garantiu o direito de registro de patente de um software que garantia a forma correta de uso de um determinado dispositivo. A partir deste momento, o Congresso Americano criou uma nova corte para tratar casos envolvendo patentes; considerando patentes como válidas, a menos que provado inválida ou que se tratasse de descobertas óbvias. Dessa forma, qualquer tipo de invenção que tivesse ineditismo poderia ser patenteado e no início da década de 1990 as patentes de software estavam bem estabelecidas nos Estados Unidos, que são o maior exemplo atual da adoção de patente de software. Outro país que adota postura semelhante é o Japão onde o software é diretamente patenteável. Atualmente tem-se como exemplo de itens patenteados o uso do “duplo clique” do mouse e o algoritmo de codificação e decodificação do MP3. Na Comunidade Européia desde 1972, as patentes são regidas pela Convenção da Patente Européia (CPE). Membros da União Européia possuem legislação nacional derivada desta convenção. Essa convenção define, em seu artigo 52, as invenções patenteáveis excluindo claramente “programas para computadores”. A interpretação legal desta convenção é que não se pode patentear “programas para computador como tal”, ou seja, o software por si só. Entretanto, um invento que use software (e que dependa dele), poderia ser patenteado, o que cria dificuldades legais nessa questão. Dessa maneira, O Conselho de Apelos


Licenças de Uso em Software Livre

123

do Gabinete de Patentes Europeu, tem interpretado que o Artigo 52 refere-se a assuntos não “técnicos”, mas um programa que resolva um problema técnico tem carácter técnico e pode ser patenteado. Dessa maneira, estima-se que o GPE tenha concedido até hoje 30 mil patentes de software, e existe ainda todo um debate efervescente na Europa a esse respeito. O Brasil, com relação a este tema, adota posição semelhante a União Européia, sendo que a Lei 9279 de 14 de Maio de 1996, que regula direitos e obrigações relativos à propriedade industrial, faz concessão de patentes de invenção de modelo de utilidade (BRASIL, 1996). Segundo o art. 10 dessa lei, não se considera invenção nem modelo de utilidade os programas de computador em si. No entanto, na prática tem ocorrido o patenteamento de software em condições similares às que se obtém proteção no sistema europeu. As patentes de software são alvos preferidos das discussões atuais em software livre, porque elas apresentam uma ameaça real contra a possibilidade da comunidade criar uma implementação livre para um programa. Muito argumenta-se que a patente traz sérios prejuízos à indústria de software como um todo, ao criar dificuldades nebulosas no desenvolvimento de aplicativos com funcionalidades para as quais não se tenha certeza da existência de patentes a seu alcance real. Isto acaba por privilegiar grandes empresas, uma vez que elas têm mecanismos econômicos para manter equipes de advogados indicados a lidarem com processos de patentes. A comunidade de software livre é prejudicada diretamente e indiretamente pelas patentes. Por um lado, existe o risco real de que algum fabricante de software acione legalmente alguma comunidade desenvolvedora de um dado software livre, por quebra de patente. Impedindo essa comunidade de continuar seu desenvolvimento. Por outro lado, as patentes de software criam uma atmosfera de segredo entre os projetistas de software, justificada pela preocupação que, ao publicar detalhes de suas interfaces, eles estariam auxiliando tecnicamente seus competidores na busca de prejudicá-los, provocando a quebra patentes. Este é o caso por exemplo dos fabricantes de placa de vídeo que relutam em divulgar suas especificações para a produção de drives de código aberto de alta performace. O motivo pelo qual os fabricantes não fazem isto, como comentado em (FOGEL, 2005) é que : (...) essas empresas estão todas violando as patentes uma das outras, às vezes intencionalmente e às vezes acidentalmente. As patentes são tão impredizíveis e tão potencialmente amplas que nenhum fabricante de placa pode ter sempre certeza de estarem seguras, mesmo depois de feito uma pesquisa de patente.

Desta maneira, os fabricantes decidem não publicar suas especificações completas de interface, a fim de não tornar mais fácil aos competidores saberem se alguma patente foi quebrada.


124

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

É importante destacar que várias licenças de software livre, entre elas a GPL e a do Apache possuem cláusulas explicitas de proteção contra problemas com patentes. Por exemplo, a GPL diz claramente em seu texto que decisões judiciais ou alegações de infringimento de patentes não livram o usuário do cumprimento de obrigações da GPL. Conforme especifica a GPL (FREE SOFTWARE FOUDATION, 1991): “Se você não puder distribuir de forma a satisfazer simultaneamente suas obrigações para com esta Licença e para com as outras obrigações pertinentes, então como conseqüência você não poderá distribuir o Programa.”


7 MODELOS DE NEGÓCIOS COM SOFTWARE LIVRE

O fenômeno do software livre não pode ser estudado e compreendido deixando de lado as questões relacionadas aos aspectos enconômicos. Este capítulo objetiva afastar a falsa impressão de que o software livre tem fraco potencial de negócio. No texto, são apresentadas diversas estratégias de negócios, bem como, os benefícios e problemas inerentes a cada uma, sem deixar de mencionar o contexto de negócio com software livre no Brasil.

7.1

CONTEXTO IDEOLÓGICO E NEGÓCIOS COM O SOFTWARE LIVRE

A década de 80, quando emergiu o movimento Software Livre, foi marcada por fortes tendências ideológica baseada na filosofia de preservação das liberdades dos desenvolvedores e usuários da computação. Esses ideais quase sempre eram formados tendo por base uma visão marxista ou anarquista, não sendo impossível encontrar membros da comunidade software livre com posturas “anti-empresa”, donde originam os pré-conceitos sobre os produtos software livre sustentados por alguns empresários até os dias atuais . Conforme pode ser resgatado na história da origem do movimento e criação da FSF, a comercialização de fitas com o software GNU Emacs e GCC, mais recentemente venda de livros e camisetas, formaram a base econômica para manter o projeto. Mas, em sua maioria, os projetos de software livre eram patrocinados por instituições acadêmicas ou mesmo por esforço individual. Esse cenário de nascimento do movimento software livre propiciou a errônea impressão que com software livre não é possível gerar receitas. Porém, a idéia mais forte subjacente à expectativa de inviabilidade econômica do software livre têm suas origens no modelo de fábrica. Esse modelo pressupõe que o tempo de desenvolvimento tem que ser pago pelo valor de venda, que o valor do software é proporcional ao seu custo de desenvolvimento e seu valor de uso. Nessa lógica, os proprietários do software


126

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

obrigam os usuários a comprarem novas versões dos programas, porque se continuarem a usar as antigas não terão mais suporte dos fabricantes. Ou então, os arquivos que são gravados pelos aplicativos proprietários ficam sem possibilidade de compartilhamento com outras versões desse mesmo programa, o que vem a criar uma pressão para que todos usem o programa mais atual, ou para que os outros fabricantes de produtos proprietários adaptem seus proprietários para ter compatibilidade com outro formato do mercado. Para (RAYMOND, 1999b), o modelo de fábrica para produção de software não se sustenta corretamente. O autor afirma essa idéia com base em duas premissas: • Há fortes evidências de que mais de 90% da produção de software é ainda produzida localmente, isto é, dentro da própria empresa que necessita do software. • A maior parte do tempo gasto com software produzido é com a manutenção (correção de bugs, pequenas adaptações, etc), do que com o desenvolvimento propriamente dito. Ainda segundo (RAYMOND, 1999b), o software não pode ser encarado como ‘mercadoria’ a ser comercializada como quaisquer outros produtos que estão no mercado, porque sua natureza é diferente. Por exemplo: se uma empresa que vende uma determinada mercadoria abre falência, ou seja, vem a fechar, o seu produto geralmente mantém o mesmo valor. Isto não ocorre no mercado de software, em que o software perde seu valor para o consumo. Nesse contexto, a maior conseqüência recai sobre o usuário desse software (produto) que não tem mais o suporte e atualização do mesmo. Sendo assim, o software é uma indústria de serviço e não de mercadoria. Com a visão de que software é uma mercadoria, consumidores perdem porque o software é uma indústria de serviço, os incentivos no modelo de fábrica trabalham em direção oposta ao oferecimento de serviços competitivos (RAYMOND, 1999b). Esse modelo de desenvolvimento cuja base de sustentação é a indústria de serviços vem ganhando adesão de panteões da indústria de software, como: IBM, HP e Oracle e recentemente a Novell, que estão aderindo de alguma maneira ao código aberto (KOENING, 2004). Conforme apontado em (OHL, 2007), a pesquisa da Consultoria Evans Data mostra que o Linux está presente em 73% das companhias com mais de mil funcionários, enquanto há um ano, esse índice era de 65%. Ainda pesquisas dessa consultoria afirmam que, nos Estados Unidos, o Linux já é executado em 24% das empresas que têm de 100 a 250 funcionários. Vários estudos sobre software livre concluem que ainda não há um líder de mercado claro, o que caracteriza mercado ainda em formação, aberto a novas tecnologias e modelos de negócios inovadores. Porém, quando se fala sobre este assunto, a grande questão que paira nas mentes de muitas pessoas se refere a como essas empresas geram lucro desenvolvendo e utilizando software livre.


Modelos de Negócios com Software Livre

127

Conforme supra mencionado, o código aberto inspira não somente novos modelos de produção, uso e distribuição de programas de computador que se adequam muito bem as tendências da Sociedade da Informação, como também, promove novas dinâmicas ou estratégias de negócios, tangenciadas por novas aberturas de exploração comercial do software. Entretanto, a transferência de valor econômico gerado do código aberto é, às vezes, implícita, ou seja, não são facilmente percebidas. Nas próximas seções serão abordadas as vantagens e riscos das várias dinâmicas e estratégias de negócio com código aberto, a fim de extender a compreensão sobre o tema e propiciar sua maior efetivação nas empresas e no mercado, ao mesmo tempo tem intenção de se distanciar da visão anti-capitalista em torno do software livre.

7.2

ESTRATÉGIAS DE NEGÓCIO COM SOFTWARE LIVRE

De acordo com os estudos da IT Managers (KOENING, 2004), os usuários individuais e empresas de software possuem atualmente muitas opções para satisfazerem suas necessidades computacionais e de redes. Para ele, o código aberto oferece oportunidades para o empreendimento ser mais independente, através das modificações de código fonte, em atualização de programas, maior liberdade na integração de decisões e interação direta com a comunidade de código aberto. Esse autor argumenta que o código aberto cria oportunidade para implementar projetos em um caminho que é consideravelmente meticuloso nas regras do empreendimento, mais do que nas regras de uma empresa de software proprietário. O código aberto oferece avanços competetitivos para vendedores de hardware e software e possui um leque de serviços mais criativo e competitivo que soluções proprietárias. Esses fatos inclusive são assinalados em (KOENING, 2004), como os motivos pelos quais a adoção Linux e código aberto continuam em ritmo acelerado. Assim, a IT Managers classificou as principais estratégias de negócio que utilizam software livre. Essas categorias dizem respeito à forma com que a empresa incentiva e obtém retorno do investimento. O estudo aponta sete categorias de estratégias para negócio com código aberto: Estratégia de Otimização; Estratégia da Licença Dual; Estratégia de Consultoria; Estratégia de Assinatura (Subscription); Estratégia de Patrocínio ou Apadrinhamento (Patronage); Estratégia de Embarcado (Embedded) e a Hospedagem (Hosted). Segue-se uma análise de cada uma destas estratégias, identificadas pela IT Managers. 7.2.1

A Estratégia de Otimização

A estratégia de otimização visa tirar proveito da camada baseada em commodity e com baixa lucratividade e otimizar o sistema que executará sobre esta camada para ter o melhor


128

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

desempenho possível. Em uma arquitetura de código fechado essa estratégia é inviável, pois modificações na camada de base não são possíveis. Para O’Reilly (O’REILLY, 2004), o código aberto traz mudanças de paradigma na indústria de TI, ao forçar uma transformação do software commodity . David Stutz, em (STUTZ, 2004), conceitua commodity como: Commodity é usado atualmente para representar matéria-prima para processos industriais: coisas ou substâncias que são consideradas valiosas como blocos básicos de contrução para diversas finalidades. Por causa de seu valor geral são usados tipicamente em grande quantidade e de várias formas diferentes. Comodities são geralmente fornecidos por mais de um produtor e consumidor e podem substituir um produto por outro sem prejuízos. Porque comodities são consumidas desta maneira, elas são definidas por padrões de qualidades uniformes aos quais precisam ser seguida.

Como exemplo de estratégia de otimização pode ser mencionado o caso da Electronic Arts que precisou adicionar servidores confiáveis para versões online do jogo "Sims". A Oracle propos a ela a versão Linux de seu Oracle9i RAC (Real Aplplication Cluster Cluster de Aplicação Real). A partir do momento em que ela utilizou um hardware e um sistema operacional que permite a comodity, a Oracle pode aumentar sua margem de lucro e ainda assim diminuir o custo para Electronic Arts. Se a Oracle estivesse adotado uma solução baseada em uma versão proprietária de UNIX e em um hardware também proprietário, teria obtido menos lucro e estabelecido um custo maior para o seu cliente. Outro exemplo interessante de estratégia de otimização é a da Cyclades (comprada em 2006 pela Avocent1 ) que fabricava equipamentos de redes para uso corporativo principalmente (roteadores, switches gerenciáveis, servidores Web estaqueáveis), todos baseados em software livre, especialmente em Linux. Sendo assim, cyclades focava-se em vender soluções de redes sem preocupar-se com uma equipe de TI grande para manter o software utilizado em seus equipamentos. Assim, a estratégia de otimização enxerga a construção de uma solução específica de componentes de código aberto, tanto para hardware como para software. A solução de software é composta por uma plataforma básica de código aberto mais novas camadas de funções relevantes ao contexto de negócio. A solução de hardware é composta por um componente de código aberto que permite que o produto seja comercializado, utilizando como componente embutido ou produto embarcado (Estratégia Embarcada). Ainda pode ser utilizado na venda de produto em forma de driver (Estratégia Habilitando Hardware). Estas duas estratégias originadas da otimização de componentes código aberto, o valor financeiro é gerado da venda de solução final e dos serviços agregados de pré-venda e pósvenda. Por trás desta lógica de negócio é possível gerar novos componentes competitivos 1 www.avocent.com.


Modelos de Negócios com Software Livre

129

ao mercado, capazes de ampliar os usuários de software livre e gerar lucro e investimentos às empresas. 7.2.2

Estratégia de Patrocínio

Segundo (KOENING, 2004), o código aberto como estratégia de otimização estimula outra estratégia de negócio: a de patrocínio. Esta estratégia compreende a colaboração por parte de empresas em projetos baseados em código aberto. Por exemplo, uma empresa libera o código fonte de uma determinada aplicação à comunidade e apoia um projeto com dinheiro ou desenvolvedores. Os motivos que levam empresa a apoiar um projeto de software livre diz respeito as tentativas de impor a convergência da comunidade a uma definição de padrões, ou um esforço para commodity uma camada de software a fim de eliminar a concorrência e tirar lucro de uma camada de valor acima da que foi feita a commodity como forma de penetrar em segmentos de mercado monopolizados, na busca de manter uma base consistente de usuários. Faz parte desse tipo de estratégia a liberação do código fonte do Eclipse pela IBM, do StarOffice pela SUN (posterior OpenOffice.org) ou do navegador Netscape (posterior Mozilla Firefox). Os principais ganhos comerciais nesse negócio consiste na ampliação do número de usuários, importantes no desenvolvimento, inspeção e divulgação do software, viável para a evolução da empresa no mercado, e na atração de um maior número de investidores. 7.2.3

Estratégia da Licença Dual

A licença dual permite conciliar em um mesmo produto de software duas licenças: proprietária e livre, as quais permitem que o software seja utilizado em um projeto livre sem qualquer custo, mas às vezes com um número limitado de funções; enquanto para sua utilização comercial é necessário a aquisição de uma licença. Além disso, o licenciamento duplo permite que o produto possa ser incorporado como parte de outros programas de natureza estratégica para o cliente, sem que seja aberto o código para uso das empresas concorrentes, por outro lado almeja beneficiar-se com o envolvimento da comunidade. A MySQL é um exemplo do uso da licença dual, ela comercializa um servidor de banco de dados sob licença GPL2 para uso não comercial com software de código aberto e uma licença para uso comercial. O lucro é gerado pela venda ou oferta de serviços associados ao software, além disso este negócio beneficia-se com a estratégia de patrocínio3 , de

2A

licença dual exige na prática que a licença livre seja GPL a fim de impedir que os competidores utilizem o software para o desenvolvimento de uma versão proprietária. 3 Está relacionado ao aumento da comunidade de usuários, ações em publicidade.


130

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

assinatura (oferece serviços agregados) e de otimização (configuração, personalização e soluções conforme requisito da empresa). 7.2.4

Estratégia de Hospedagem

Consiste na oferta de um serviço (como por exemplo o usuário poder utilizar o programa da empresa) baseado em softwre livre de forma gratuita, ou a partir de uma taxa paga. Esta estratégia de negócio, implícita de serviços, está em destaque atualmente, podendo ser citado as seguintes megacorporações: Google, eBay, Salesforce.com. e a Amazon. A Google é talvez o maior exemplo da venda de serviços implícitos. Ele tem seu sistema baseado no Linux e com melhorias próprias que não precisam ser retornadas à comunidade, uma vez que não tem obrigação de compartilhar modificações de códigos. O Google libera as APIs (Interfaces para Programação) de seus produtos na Web e cobra pelos usos de algumas delas. A utilização do Linux trouxe a vantagem de ser possível aproveitar um sistema operacional e implementar apenas as melhorias necessárias e adequados ao propósito da empresa. 7.2.5

Estratégia de Consultoria

Segundo (KOENING, 2004), um estudo da McKinsey Consulting de 1999 sugere que, cerca de 70% do custo de uma solução corporativa é relativa à implantação e os 30% restante referente a aquisição de licenciamento. Já o consultor Rodolfo Gobbi, no texto para Info Canal (OHL, 2007), afirma que as estratégias de negócios com o Linux está concentrado hoje, no Brasil, na instalação e na configuração de servidores, projetos de migração de sistemas e suportes. Para esse consultor esses serviços mencionados são os mais básicos e de menor valor no mercado. Mas, através deles é que é possível a busca permanentemente de prestações de serviços de maior valor agregado, como as relacionados a missões críticas, por exemplo. Sem contar que os problemas de mais simples soluções podem ser resolvidos rapidamente através da própria comunidade software livre. Entre os consultores há um consenso em afirmar que a saída para prestar serviços em que as margens de lucros sejam maiores carece de investimento em conhecimento técnico. No começo pode-se iniciar com prestações de serviços às soluções simples como: a instalação de firewall, de servidores Proxy, Web e outros. Depois estes serviços transformam-se em “comodities” e as necessidades das empresas passam a ser as aplicações centrais, como: banco de dados, clustering, mainfraime e soluções de alta disponibilidade. Muitas empresas precisam integrar aplicações e soluções, uma vez que, a preferência por produtos código aberto, traz a necessidade da interoperabilidade entre as plataformas e programas proprietários e livres, as quais precisam ser garantidas.


Modelos de Negócios com Software Livre

131

A prestação de consultoria em treinamento de usuários também gera receita às empresas, além de ensinar usuários finais a manusearem o sistema, nos departamentos de tecnologia da informação da empresa, há escassez de mão-de-obra especializado a dar o suporte técnico adequado, assim a equipe técnica da empresa também carece de treinamento. 7.2.6

Estratégia de Assinatura

A venda de assinaturas é destacada como a forma mais básica de negócios com o sistema de código aberto. A RedHat oferece um serviço de assinatura no qual o assinante tem, por um ano, direito a suporte de configuração, acesso às atualizações do sistema entre outras serviços. A vantagem da assinatura é que o usuário final tem segurança quando precisa obter suporte especializado para o sistema, bem como uma fonte de atualização segura do programa. Como a RedHat distribui de forma gratuita seu sistema operacional, não havendo comissionamento sobre a venda de licenças, com isto a forma dessa emprega ganhar dinheiro no mercado dá-se pela venda de serviços (manutenção e consultoria). Através da disponibilização do sitema operacional, a RedHat incentiva maior instalação de seu produto, com isto, aumenta a probabilidade de número de clientes em potencial em busca de assinatura, ou prestação de outros serviços por esta empresa. 7.2.7

Estratégia Embarcada

Segundo (KOENING, 2004), o Linux pode ser encontrado como base de mais da metade dos sistemas embarcados existentes no mercado, uma vez que é um sistema altamente flexível, extensível e enstável. Além disso, o GNU/Linux inclui boa-documentação, dispositivos de drivers, uma comunidade ampla de suporte, potenciamente mais responsável do que muitos vendedores proprietários. Desenvolvimento de ferramentas para Linux embarcado tem sido usado em muitos dispositivos de serviços telefones celulares, já que a capacidade computacional dos dispositivos cresceram muito nos últimos anos e tornou-se necessário um sistema operacional para gerenciar os recusos. A Motorola, por exemplo, já adota Linux em sua linha de celulares com mais recursos. A vantagem é que o custo de implementação de soluções software livre é bem reduzido, uma vez que boa parte do produto já foi previamente desenvolvida, sendo necessário somente completar e agregar valor à solução. Visando este mercado a Wind River4 migrou parte de seus serviços de sua plataforma com licenciamento tradicional para prover serviços e desenvolver produtos para utilização do Linux em dispositivos móveis. Outro exemplo é a da empresa paulista TopComm que vem trabalhando com Linux embarcado desde 1999 4 http://www.windriver.com/.


132

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

e tem hoje cerca de 30 projetos nessa área. O primeiro desenvolvimento foi para o sistema que roda nos terminais de consulta de preços da Livraria Saraiva e que usa a distribuição Toplinux no software de controle.

7.3

COMENTÁRIOS FINAIS

Conforme abordado no presente capítulo existem diversas estratégias de negócios possíveis com o software, desde formas voltada para obter lucros desenvolvendo aplicativos de código aberto, como suporte, assinatura entre outros. Segundo o posicionamento de (YOUNG, 1999): Ninguém espera que seja fácil fazer dinheiro com software livre. Se fazer dinheiro com software livre é um grande desafio, esse desafio não é necessariamente maior do que com software proprietário.

O que muda é a forma de se obter lucro, uma vez que com o software livre não se tem custo como produto, mas sim como prestações de serviços. Dessa forma, os produtos originais não precisam ter um custo direto para o usuário, uma vez que existem várias estratégias, como as já citadas, em que os desenvolvedores podem vir a lucrar trabalhando nessa cultura. Em várias situações, inclusive, a filosofia de código aberto para quem desenvolve é mais econômica do que a filosofia de software fechado. De acordo com a afirmativa de Brian Behlendorf, em (BEHLENDORF, 1999), o produtor de software livre pode precisar investir menores tempo e custos de desenvolvimento, através da correção de bugs e novas inovações implementadas por seus colaboradores. Os valores dessa nova cultura de produção de Software Livre podem ser sustentados por argumentos que defendem a idéia de que vender software como produto não apresenta benefícios na maioria dos casos. Assim, é possível contrapor, com relativa facilidade algumas idéias, até então reinantes na Engenharia de Software, que defendem o código fechado. Algumas dessas idéias foram contrapostas em (RAYMOND, 1999b) e descritas a seguir: Vender o programa: como na maioria dos casos o software é produzido localmente, a sua venda não incorpora qualquer ganho extra para a empresa. Sendo que em boa parte dos casos isto traz até prejuízos, pois exige a criação de um setor de venda de software. Mesmo no caso das software-houses, isso é muitas vezes falso, pois despreza-se o valor do software como serviço e possíveis ganhos que a abertura de código venha a trazer (esses ganhos serão comentados a seguir).


Modelos de Negócios com Software Livre

133

Impedir que os programadores conheçam profundamente os programas: não possibilitar que os usuários (programadores) não verifiquem os códigos do software não diferencia os gastos da empresa para a sua produção, além disso, mais cedo ou mais tarde, poderia surgir no mercado software semelhante ao seu. Fechar o código para manter segurança: com as técnicas de decodificação e desmontagem (desassembling) existentes atualmente, qualquer hacker relativamente experiente será capaz de descobrir os detalhes de funcionamento de qualquer programa (o que pode ser comprovado com as constantes descobertas de furos de segurança em produtos da Microsoft). Neste capítulo foram destacadas as oportunidades que são possíveis de serem exploradas para conseguir apoio para manter um projeto de software livre. De uma forma geral, boa parte da adoção desses projetos foram estimuladas pelo sucesso do Linux. O fato do Linux ter conseguido uma razoável penetração no mercado em um curto espaço de tempo chama a atenção para essa forma de produção de software. Ainda mais quando se vêem exemplos claros de sucesso de empresas trabalhando sob essa filosofia (como a RedHat, entre outros). Conforme destacado em (YOUNG, 1999), não se pode competir com um monopólio com as regras impostas pelo próprio monopólio. Deve-se, nesse caso, competir com o monopólio alterando as regras do jogo a seu favor.


134

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre


A APÊNDICE: APLICATIVOS LIVRES

Por Samuel Pereira Dias

Para o usuário final, o sistema operacional deve ser transparente e realmente cumprir com a tarefa de ocultar o hardware subjacente. Esse tipo de usuário preocupa-se mais com a camada mais alta do sistema computacional: as aplicações que ele utiliza. Muitos acreditam que não existem aplicações livres suficientes para satisfazer um usuário mediano e, neste apêndice, esse mito será analisado com cautela.

A.1

FACILIDADE DE USO

Quando se fala em Linux com pessoas que o conhecem superficialmente, uma das idéias mais recorrentes refere-se à dificuldade de utilização, especialmente do terminal. Entre os motivos pode-se listar o uso contínuo que usuários mais experientes fazem do terminal para resolver problemas no sistema, o grande número de páginas na Web que apresentam comandos ou hospedam histórico de listas onde o terminal é a ferramenta final para se resolver todos os problemas ou até mesmo a imagem de sistema operacional para servidores que se solidifica a cada dia. De fato, a grande maioria desconhece que um usuário comum pode realizar a maior parte de suas atividades sem precisar abrir um único terminal, com o avanços dos gerenciadores de ambiente gráfico disponíveis. Os gerenciadores mais voltados para usuários finais são os projetos KDE1 (Figura A.1) e GNOME2 (Figura A.2). Ambos possuem os recursos básicos para navegação em disco e manipulação de arquivos, gerenciamento de mídias removíveis (disquetes, CD-ROMs, pendrives, etc.). Além disso, possuem uma interface agradável que fascina muitos novatos. O usuário pode realizar qualquer atividade sem precisar recorrer ao terminal, utilizando os 1 http://www.kde.org/. 2 http://www.gnome.org/.


136

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

recursos encontrados nesses gerenciadores, de forma muito similar à realizada em outras plataformas.

Figura A.1: Gerenciador de Ambiente KDE

A despeito do que muitos usuários iniciantes defendem, a interface gráfica em Linux não precisa, nem deve, acompanhar a interface do MS-Windows. A alegação de que o usuário sofre com a mudança de interface não é diferente do impacto sobre ele na ruptura do MS Windows 95 com os conceitos e a interface do MS-Windows 3.1x. A alteração no comportamento e gerenciamento do novo MS-Windows, naquela época, foi muito maior que a migração do MS Windows para o Linux atualmente, pois os conceitos essenciais da interface e usabilidade não são distintos. É importante destacar que KDE e GNOME não são os únicos ambientes para Linux. Talvez sejam os mais usados por usuários iniciantes, pois a maioria das distribuições inclui pelo menos um deles como padrão, pela qualidade visual e recursos oferecidos. Todavia, essas características também cobram seu preço (recursos computacionais, como memória e processamento) para serem usadas, como transparência e animações. O leitor encon-


Apêndice: Aplicativos Livres

137

Figura A.2: Gerenciador de Ambiente GNOME

trará na web3 vários ambientes, com diferentes funcionalidades e exigências de recursos, o que possibilitará a escolha daquele que for mais adequado à necessidade e ao poder de processamento de seu equipamento.

A.2

SUÍTE DE APLICATIVOS PARA ESCRITÓRIO

Quando se fala em uso do computador para realização de atividades acadêmicas ou profissionais, o maior pensamento recai sobre as suítes de escritório. Por esse nome, entende-se o conjunto formado pela agregação de processador de texto, planilha eletrônica, editor de apresentações e, em alguns casos, um gerenciador de banco de dados de pequeno porte. Entre aplicações proprietárias, o que obteve maior destaque foi o MS Office, que superou vários concorrentes e hoje é referencial para a maioria dos usuários. 3 Por

exemplo, em http://www.freedesktop.org/wiki/Desktops.


138

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

A suíte mais popular disponível como software livre é o OpenOffice.org4 . Entretanto, o termo suíte não é totalmente adequado, pois não se trata exatamente de um agregado de aplicações, mas uma única aplicação que ajusta-se ao tipo de documento aberto ou parâmetro recebido na inicialização. É composto pelo processador de textos Writer (Figura A.3), a planilha eletrônica Calc, o editor de apresentações Impress e o gerenciador de banco de dados Base. Possui ainda algumas aplicações agregadas, como o Math para edição de fórmulas.

Figura A.3: OpenOffice.org Writer

Existem usuários que não dependem de uma aplicação totalmente integrada, usa apenas um processador de textos ou uma planilha eletrônica e não precisa de um pacote completo. Há até mesmo os requerem aplicações que exijam menos recursos computacionais para execução (processador e memória). Para essas necessidades específicas, existem

4

http://www.openoffice.org/.


Apêndice: Aplicativos Livres

139

aplicações independentes, que outrora compunham o projeto GNOME Office5 . O processador de textos é o Abiword6 , mostrado na Figura A.4 e a planilha eletrônica, Gnumeric7 . Os dois produtos exigem menos recursos para sua execução que suas contrapartes presentes no OpenOffice.org, tornando-os úteis para aqueles que possuem máquinas mais antigas, além de serem totalmente independentes e o usuário poder instalar apenas o que realmente necessita. Ambos oferecem também interoperabilidade com o OpenOffice.org e o MS-Office (importação e exportação de documentos).

Figura A.4: Processador de Textos Abiword

Por fim, convém destacar que usuários KDE também dispõem de uma suíte própria, denominada KOffice8 . O projeto possui certo grau de interoperabilidade com as demais aplicações apresentadas nesta seção, através de filtros de importação e exportação. 5 Não

há indícios de manutenção do GNOME Office desde 2005, embora as aplicações independentes continuem em franco desenvolvimento. 6 http://www.abisource.com/. 7 http://www.gnome.org/projects/gnumeric/. 8 http://www.koffice.org/.


140

A.3

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

APLICAÇÕES PARA INTERNET

Complementando as aplicações de escritório, merecem menção as aplicações para internet. Além do Firefox9 , existem aplicações para os mais variados propósitos. Ainda na classe dos navegadores, pode-se citar o Konqueror (navegador web e para arquivos padrão do KDE), navegadores em modo texto (Links e Lynx), etc. Para gerenciamento de e-mails, merece destaque o Evolution10 (Figura A.5), que além de suportar as mais variadas tecnologias e protocolos para transmissão de e-mails também inclui agenda, gerenciador de tarefas e sincronizador com computadores de mão, transformando-se em um das mais completas ferramentas de gerenciamento de informações pessoais11 . Usuários que não desejam tantas funcionalidades dispõem de leitores de e-mail como o Mozilla Thunderbird12 , o Balsa13 (integrante do ambiente GNOME). Usuários do KDE podem utilizar o KMail14 . Além das aplicações apresentadas, pode-se citar os clientes para diversos protocolos de mensagens instantâneas, como Gaim15 para o GNOME e o Kopete16 para KDE. Usuários de VoIP podem usar o Ekiga17 (anteriormente denominado GNOME Meeting).

A.4

JOGOS E ENTRETENIMENTO

Muitos usuários costumam afirmar que não existem versões de seus jogos favoritos para Linux. Essa informação é parcialmente correta. Além de jogos específicos para a plataforma, que acompanham inclusive as distribuições (cartas, quebra-cabeças, etc.), existem vários jogos disponibilizados para Linux. Por exemplo, a ID Software18 disponibiliza o código-fonte da engine do Doom sob a licença GPL, mas não os arquivos com cenários e personagens. Para sanar essa lacuna, existe o projeto FreeDoom19 para os que apreciam o jogo. Aqueles que possuem os CDs com os jogos da empresa podem baixar um executável para Linux no próprio site e aprovei9 http://www.mozilla.org/firefox/. 10 http://www.gnome.org/projects/evolution/. 11 Do

inglês Personal Information Manager (PIM)

12 http://mozilla.org/thunderbird/. 13 http://balsa.gnome.org/. 14 http://kontact.kde.org/kmail/. 15 http://gaim.sourceforge.net/. 16 http://kopete.kde.org/. 17 http://www.ekiga.org/. 18 http://www.idsoftware.com/. 19 http://freedoom.sourceforge.net.


Apêndice: Aplicativos Livres

141

Figura A.5: Gerenciador de Informações Pessoais Evolution

tar o material. Atualmente, a ID disponibiliza primeiro os demos para Linux (sua plataforma de desenvolvimento) para depois liberar outras versões. Outros clássicos da empresa também estão disponíveis em Linux. Entre os jogos nativos do sistema operacional pode-se citar o game de estratégia FreeCiv20 (Figura A.6) e a batalha de tanques BZFlag21 . Uma lista mais completa de jogos livres e proprietários pode ser encontrada nos sites especializados em jogos para Linux: LinuxGames22 , The Linux Game Tome23 , Linux-Games24 , dentre outros. Na área de entretenimento, existem vários players de áudio e vídeo. Dentre os players de vídeo mais encontrados nas distribuições Linux estão o Xine 25 e o MPlayer26 . Para áu20 http://www.freeciv.org/. 21 http://bzflag.org. 22 http://www.linuxgames.com/. 23 http://www.happypenguin.org/. 24 http://www.linux-games.com/. 25 http://xinehq.de/. 26 http://mplayerhq.hu/.


142

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura A.6: FreeCiv

(Fonte: http://freeciv.wikia.com/wiki/Main_Page)

dio, dentre os existentes, apresenta-se o Amarok27 e o Exaile28 . Os players apresentados neste texto são estendidos por meio de plugins para os formatos de áudio/vídeo necessários e apresentam recursos como listas de execução (playlists). Alguns podem conectar-se a bancos de dados na internet para recuperar informações sobre as músicas em execução (álbum, título, intérprete, etc.). Os players de vídeo, em especial, além do suporte a streamming via internet, também suportam formatos como VCD e DVD. Usuários habituados a visualizar ou ouvir qualquer formato de arquivo multimídia devem estar atentos ao fato de muitas distribuições não oferecerem suporte direto a CODECs29 proprietários. Para contornar a situação, é possível, sem muitas dificuldades, baixar os CODECs de repositórios para que as aplicações possam executar normalmente o arquivo.

27 http://amarok.kde.org. 28 http://www.exaile.org. 29 CODEC

é o plugin responsável por codificar/decodificar formatos específicos de áudio e vídeo.


Apêndice: Aplicativos Livres

A.5

143

APLICAÇÕES ESPECÍFICAS

Existem outros usos do computador além da automação de escritório, navegação e entretenimento. Existem atividades que exigem aplicações específicas, mesmo inseridas no contexto do uso de outros aplicativos. Também existem aquelas atividades que são realizadas por nichos bem específicos. Esta seção apresenta algumas aplicações que se inserem nesse contexto, sem pretensão de incluir uma lista exaustiva. Por exemplo, durante a navegação o usuário pode encontrar um arquivo no formato PDF30 . Para a visualização do arquivo nesse formato existem várias opções, mas o Evince31 tem ganhado espaço em muitas distribuições e oferece opções normalmente encontradas apenas no visualizador proprietário da Adobe32 . É importante destacar que o OpenOffice.org é capaz de exportar seus arquivos nesse formato, dispensando o uso de editores proprietários de arquivos PDF. Projetistas para web necessitam de editores de HTML e de imagens. Na primeira categoria, além dos editores de código presentes no próprio Linux, existe o projeto NVU33 . Para edição de imagens, pode contar com projetos como o GIMP34 (Figura A.7) para edição de imagens matriciais e o Inkscape35 para imagens vetoriais (com destaque especial para o uso do formato aberto SVG36 ). Como exemplo de nicho mais específico, continuando na área de editoração eletrônica, pode-se citar a produção de material publicitário com o Scribus37 . Segundo usuários de equivalentes proprietários, a aplicação evoluiu em qualidade e recursos de tal modo que oferece os recursos necessários a usuários que queiram fazer desde o jornal interno da empresa a projetos de editoração de maior porte. Aqueles que pretendem manter seus projetos e finanças sob estrito controle têm à disposição aplicações que permitam seu gerenciamento. O GnuCash38 é um gerenciador de finanças pessoais que utiliza conceitos contábeis (duplo registro, por exemplo) para cadastro e análise de operações financeiras (gerenciamento de contas, ações, rendimentos,

30 Portable

Document Format, formato aberto da Adobe que permite a abertura do arquivo em diferentes plataformas sem prejuízo se sua formatação. 31 http://www.gnome.org/projects/evince/. 32 http://www.adobe.com/. 33 http://www.nvu.com. 34 http://www.gimp.org/. 35 http://inkscape.sourceforge.net/. 36 http://www.w3c.org/. 37 http://www.scribus.net/. 38 http://gnucash.org/.


144

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Figura A.7: GIMP

etc.). O Planner39 é um gerenciador que permite o acompanhamento de tarefas e recursos de projetos. Para finalizar esta seção, mais alguns projetos de propósito específico são apresentados, como exemplo da diversidade de aplicações que podem substituir, com maior ou menor grau de qualidade, seus equivalentes proprietários: KTechLab: editor e simulador de circuitos eletrônicos e microprocessados40 (Figura A.8); Kino: editor de vídeos41 ; DVDStyler: aplicativo para autoria de DVDs42 (menus interativos); Blender: ferramenta para edição e renderização de cenários 3D.

39 http://planner.imendio.org. 40 http://ktechlab.org/ 41 http://www.kinodv.org/ 42 http://dvdstyler.sourceforge.net/.


Apêndice: Aplicativos Livres

145

Figura A.8: Simulador KTechLab

A.6

CONCLUSÕES

Em geral, os usuários não utilizam apenas as categorias de aplicações apresentadas neste texto. Suas necessidades profissionais ou até suas aptidões e interesses influenciam muito o perfil do software que será usado. Há um vasto acervo de aplicações livres para as mais variadas finalidades, atendendo em maior ou menor grau as exigências do usuário. Este texto apresentou uma pequena amostra, sem qualquer intenção de torná-la exaustiva. Existem muitas aplicações que não poderiam ser mencionadas por questões de espaço. Teoricamente, qualquer aplicação que roda em Unix pode ser executada em Linux com poucas adaptações. Considerando que o Unix possui mais de trinta anos de existência, o acervo é muito grande. Aqui também foram apresentadas apenas aplicações gráficas (com exceção apenas de dois navegadores em modo texto), com enfoque nítido no usuário iniciante.


146

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Para conhecer mais aplicações, ou buscar os equivalentes livres a software proprietário, recomenda-se a leitura do Guia Livre43 . Esse guia de migração, desenvolvido pelo Governo Federal, é um ponto de partida útil para o usuário conhecer quais aplicativos podem ser usados em substituição ao software proprietário habitual. Além do Guia Livre, visitar regularmente (e fazer buscas) em sites de gerenciamento de projetos, como o Freshmeat44 e o SourceForge45 também é um auxílio para conhecer mais aplicações disponíveis. Outro detalhe importante é que nos sites da maioria das aplicações apresentadas existem instruções de instalação que envolvem inclusive a compilação do código-fonte. Isso pode assustar a maioria dos usuários, mas é um passo desnecessário na maioria das distribuições. Buscando atender o usuário doméstico, as distribuições Linux adotam gerenciadores de pacotes (instaladores) gráficos que permitem a busca pelo nome da aplicação e sua instalação rápida, sem complicações (e compilações). É recomendável que o usuário iniciante conheça o mecanismo de instalação de sua distribuição (seu gerenciamento de pacotes) antes de partir para compilação manual dos programas desejados.

43 http://www.governoeletronico.gov.br/governoeletronico/publicacao/noticia.wsp?

tmp.noticia=469. 44 http://www.freshmeat.net/. 45 http://www.sourceforge.net.


REFERÊNCIAS BIBLIOGRÁFICAS

ABBAGNANO, N. Diccionario de filosofía. Espanha: [s.n.], 1991. APARICI, R. Mitos de la educación a distancia y las nuevas tecnologías. In: APARICI, R.; OSUNA, S. (Coord.). CD-ROM Recursos, Versión 1.0. Madrid: UNED, 1998. BARAN, P. On Distributed Communications: I Introduction to Distributed Communications Networks. ago. 1964. IEEE Trans. Comm. Systems. BARAN, P. Interview 378. 24 out. 1999. IEEE History Center The Institute of Electrical and Electronics Engineers, Inc. Disponível em: <http://www.ieee.org/portal/cms\ docs/iportals/aboutus/history\ center/oral\ history/pdfs/Baran378.pdf>. BEHLENDORF, B. Open source as a business strategy. In: DIBONA, C.; OCKMAN, S.; STONE, M. (Ed.). Open Sources: Voices from the Open Source Revolution. Cambridge: O’Reilly & Associates, 1999. p. 70–78. BRASIL, L. n. d. . d. m. d. . Regula Direitos e Obrigações Relativos à Propriedade Industrial. Diário Oficial da União, 1996. Disponível em: <http://www.planalto.gov.br/ccivil/Leis/L9279.htm>. BUSH, V. As We May Think. 1945. URL: http://www.ps.uni-sb.de/duchier/pub/ vbush/vbush. BUSTOS, M. N. Multimedia. Madrid: Anaya Multimedia SA, 1998. CASTELLS, M. A Sociedade em Redes. São Paulo: Paz e Terra, 2001. CASTELLS, M. A Galáxia Internet - Reflexões sobre Internet, Negócios e Sociedade. 1. ed. São Paulo: Jorge Zahar, 2003. CERF, V. G.; KAHN, R. E. A Protocol doe Paket Network Intercommunication. IEEE Transctions on Communications, com-22, n. 5, 5 maio 1974.


148

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

CHAIBEN, H. G. Hipermídia na Educação. Universidade Federal do Paraná, 2002. CONKLIN, J. Hyper text: An Introduction and Survey. IEE Computer-34, 1987. DERY, M. Escape Velocity: Cyberculture at the End of the Century. New York: Grove Pres, 1997. EISENBERG, J.; CEPIK, M. Internet e Política: Teoria e Prática da Democracia Eletrônica. 1a . ed. Belo Horizonte: UFMG, 2002. ELIAS, P. S. Alguns Aspectos da Informática e suas Conseqüências no Direito. 2000. Disponível em: <http://www.jusnavegandi.com.br>. FOGEL, K. Producing Open Source Software: How to run a Successful Free Software Project. 1a . ed. [S.l.]: O’Reilly, 2005. FREE SOFTWARE FOUDATION. Licença Pública Geral do GNU (GPL). 1991. Disponível em: <http://creativecommons.org/licenses/GPL/2% -.0/legalcode.pt>. FREE SOFTWARE FOUNDATION. Categorias de Softwares Livres e Não-Livres. 2002. FSF. Disponível em: <http://www.gnu.org/philosophy/categories.pt.html>. GIBSON, W. Neuromancer. New York: Ace books, 1995. HARASIM, L. M.; TUROFF, M. Learning Network. Cambridge: Mass-MIT Press, 1996. HOUAISS, A. Houaiss Dicionário da Língua Portuguesa. 1a . ed. Rio de Janeiro: Objetivo, 2001. KOENING, J. Seven open source business strategies for competitive advantage. ITI Manager’s Journal, 13 maio 2004. Disponível em: <http://www.itmanagersjournal.com/articles/314?tid=85>. LEE, B. T. WWW: Past, Present and Future. IEEE Computer, 1996. LEINER, M. B.; CERF, G. V.; CLARK, D. D.; KAHN, E. R.; KLEINROCK, L.; LYNCH, C. D.; POSTEL, J.; ROBERTS, G. L.; WOLFF, S. Histories of the Internet: A Brief History of the Internet. 9 nov. 2006. Internet Society. Disponível em: <http://www.isoc.org/internet/history/brief.shtml>. LEINER, M. B.; CERF, V. G.; CLARK, D. D.; KAHN, R. E.; KLEINROCK, L.; LYNC, D. C.; POSTEL, J.; ROBERTS, L. G.; WOLFF, S. S. The Past and Future History of the Inteternet. Comunications of the ACM, v. 40, n. 2, p. 102–108, fev. 1997.


Referências Bibliográficas

149

LEMOS, A. Agregações Eletrônicas ou Comunidades Virtuais? Análises das Listas Facom e cibercultura. 1999. Disponível em: <http://www.facom.ufba.br/ciberpesquisa/agregacao.htm>. LEMOS, A. Cibercidade: As cidades na cibercultura. Rio de Janeiro: Editora e papers, 2004. LÉVY, P. As Tecnologias da Inteligência. 2. ed. São Paulo: Editora 34, 1995. LÉVY, P. Cibercultura. 2. ed. São.Paulo: Editora 34, 2000. LÉVY, P. O que é o Virtual? 2. ed. São Paulo: Editora 34, 2001. LEVY, S. Hacker: Hackers Heroes of the computer Revolution. 1999. LICKLIDER, J. C. R. On-Line Man-Computer Communication, Spring Joint Computer Conference. National Press, Califórnia, v. 21, n. 7, p. 113–128, 1962. LOPES, E. Discurso Literário e Dialogismo em Bakhtin. Araraquara: UNESP, 1993. LORENZZONI, P. L. Culturas Hacker. Texto Utilizado em Palestra Ministrada. Lavras: UFLA, 2002. LOZANO, F. S.; UCHÔA, K. C. A. Cibercultura e Software Livre. 1. ed. Lavras: UFLA/FAEPE, 2006. (Curso de Pós Graduação “Lato Sensu” (Especialização) a Distância em Administração em Redes Linux). LUIS, J. Cibersociedad: Los Retos Sociales Ante un Mundo Digital. Madrid: McGRAW-HILL, 2002. MARCELO, S. R. M. d. C. A Trajetória da Internet no Brasil: do Surgimento das Redes de Computadores À instituição dos Mecanismos de Governança. Dissertação (Mestrado) — Universidade Federal do Rio de Janeiro - UFRJ, RJ, set. 2006. MELEIS, H. Toward the information network. Computer, IEEE Computer Society, Los Alamitos, CA, USA, v. 29, n. 10, p. 59–67, 1996. MINISTéRIO DO PLANEJAMENTO. e-PING Padrões de Interoperabilidade de Governo Eletrônico. 2.0. ed. [S.l.], out. 2006. Disponível em: . MINISTéRIO DO PLANEJAMENTO, ORçAMENTO E GESTãO. Guia Livre - Referência de Migração para Software Livre do Governo Federal. 0.9. ed. [S.l.], 22 jun. 2004. Disponível em: .


150

EDITORA - UFLA/FAEPE - Cibercultura e Software Livre

Missão para a Sociedade da Informação. Livro Verde para Sociedade da Informação em Portugal. Lisboa: MSI, 1997. MIZRACH, S. Is there a Hacker Ethic for 90s Hackers? 1997. Disponível em: <http://packetstormsecurity.org/docs/hack/ethics/is.there.a.hacker.ethic.for.90s.hackers.html>. OHL, M. Dá pra Ganhar Dinheiro com o Pingüim. 21 mar. 2007. Disponível em: <http://info.abril.com.br/canal/edicoes/21/conteudo\ 220639.shtml>. O’REILLY, T. Open Source Paradigm Shift. jun. 2004. O’Reilly. Disponível em: <http://tim.oreilly.com/articles/paradigmshift\ 0504.html>. O’REILLY, T. What Is Web 2.0 Design Patterns and Business Models for the Next Generation of Software. O’Reilly, 30 set. 2005. Disponível em: <http://www.oreilly.com/>. PALLOFF, R. M.; PRATT, K. Construindo Comunidades de Aprendizagem no Ciberespaço. Porto Alegre: Artmed, 2002. PETER, I. So, Who Really did Invent the Internet? 2004. Internet History Project. Disponível em: <http://www.nethistory.info/>. PNAD Pesquisa Nacional por Amostra de Domicílio. Sínteses de Indicadores 2004. Brasil: [s.n.], 2005. RAYMAND, E. S. The New Hacker’s Dictionary. [S.l.: s.n.], 2003. RAYMOND, E. The New Hacker’s Dictionary. [S.l.: s.n.], 2003. RAYMOND, E. S. The cathedral and the bazar. In: . The Cathedral & the Bazaar: Musings on Linux and Open Source by and Accidental Revolutionary. Sebastopol-CA: O’Reilly, 1999. RAYMOND, E. S. The Magic Cauldron. 1999. URL: http://www.tuxedo.org/~esr. RAYMOND, E. S. Hacker Howto. 2001. Disponível em: <http://www.catb.org/˜esr/faqs/hacker-howto.html>. RAYMOND, E. S. 2006. Disponível em: <http://www.catb.org/˜esr/faqs/hacker-howto.html>. REDE NACIONAL DE PESQUISA. Guia do Usuário Internet / Brasil, Versão 2.0. Rio de Janeiro: RNP, 1996. URL: http://www.rnp.br/arquivos/rpu0013d.pdf. SCHAFF, A. A Sociedade da Informação. São Paulo: UNESP, 1992. SILVA, M. Sala de Aula Interativa. 2. ed. Rio de Janeiro: Quartet, 2001.


Referências Bibliográficas

151

SILVEIRA, S. A. da; CASSINO, J. a. (org.). Software Livre e Inclusão Digital. São Paulo: Conrad Livros, 2003. SOARES, L. F. G.; LEMOS, G.; COLCHER, S. Redes de Computadores: das LANs, MANs e WANs às Redes ATM. 2. ed. Rio de Janeiro: Campus, 1995. STALLMAN, R. The gnu operating system and the free software movement. In: DIBONA, C.; OCKMAN, S.; STONE, M. (Ed.). Open Sources: Voices from the Open Source Revolution. Cambridge: O’Reilly & Associates, 1999. p. 31–38. STALLMAN, R. The GNU Manifesto (Com anotações de 1993). Junho 2002. URL: http://www.gnu.org/gnu/manifesto.html. STALLMAN, R. M. Free Software, Free Society,. 2002. GNU Press. Disponível em: <http://www.gnu.org/philosophy/fsfs/rms-essays.pdf>. STATISTICS and Top 20. 2007. WWW. Disponível em: <http://freshmeat.net/stats/>. STUTZ, D. Some Implications of Software Commodification. 2004. Disponível em: <http://www.synthesist.net/writing/commodity\ software.html>. UCHÔA, J. Q. Segurança Computacional. 2a . ed. [S.l.]: UFLA/FAEPE, 2005. UCHÔA, K. C. A. Introdução à Cibercultura. 3. ed. Lavras: UFLA/FAEPE, 2003. (Curso de Pós Graduação “Lato Sensu” (Especialização) a Distância em Administração em Redes Linux). VAUGHAN, T. Todo El Poder del Multimedia. 2a . ed. [S.l.]: McGRAW-Hill, 1999. WEISSBERG, J. L. Real e Virtual. In: André Parente (Org.). Imagem Máquina: A Era das Tecnologias do Virtual. 3a . ed. Rio de Janeiro: Editora 34, 1999. WOLTON, D. E Depois da Internet? Portugal: Difel, 2000. YOUNG, R. Giving it away. In: DIBONA, C.; OCKMAN, S.; STONE, M. (Ed.). Open Sources: Voices from the Open Source Revolution. Cambridge: O’Reilly & Associates, 1999. p. 56–61.


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.