Revista

Page 1

Ano 1 Edição 1 Agosto/Setembro 2013 Distribuição Gratuita Edição Independente

Dica de game

para a galera que curte uma boa diversão

Entrevista Linguagem C#

Tecnologia

e música

Modelo “score orientation”, permite a interação entre músico e computador em músicas com eletrônica em tempo real.

A informática

na formação da nova geração

TECNOLOGIA

da informação

Enquanto a geração “Baby Bommer” se esforça para interagir com os equipamentos da informção digital, a geração “Alfa” já nasce brincando com esses equipamentos.

A evolução dos Processadores



EDITORIAL Direção Geral professor Daniel Passini

Criação, Diagramação, Capa, Redação, Grupo de alunos do curso de InDesign: Anna Carolina Gabriele Moreira Matheus Ribeiro Sara Joyce Senhorinha Gervásio Tiago Felipe

S

ejam bem vindos a edição de lançamento da revista TEC Arts. Ela foi carinhosamente elaborada por um grupo de alunos da Seven BH, do curso de InDesign, sob orientação do professor Daniel Passini. Aproveitamos para parabenizar ao Grupo de professores e colaboradores da escola pelos dois anos de Seven BH, completados neste mês de agosto, com competência e tecnologia. Falando nisso, esta edição especial traz para seus leitores um pouco do que há de mais novo acontecendo entre nós, cidadãos que vivemos em um tempo altamente tecnógico. Diretamente de nossa aldeia global - Belo Horizonte, destacamos algumas matérias de suma importância. Na área da educação trazemos um pouquinho do que fazem os Colégios: Batista Mineiro e Santa Maria em termos de tecnologia da informação. Na mesma linha trazemos uma entrevista que destaca o Colégio Cotemig e a Linguagem C#. Já na área da música, apresentamos o belíssimo trabalho de pesquisa de dois alunos do curso de percussão da UFMG. No campo do entretenimento eletrônico, Tiago Felipe traz uma ótima dica de game. A matéria de capa fala de um assunto essencial para os que estão recebendo de peerto a influência da tecnologia independente da geração a que pertencem. Finalmente o técnico em Informática Matheus Ribeiro fala com propriedade sobre a evolução dos processadores.

Instituição de ensino Seven BH Computção Gráfica

Mais uma vez sejam bem vindos a essa edição! Sintam-se à vontade para deixar comentários e sugestãos a respeito do nosso trabalho. Equipe de alunos

3


SUMÁRIO 8

TECNOLOGIA e música Os alunos percussionistas Breno Bragança e josé Henrique orientados pelo professor Fernando Rocha desenvolem pesquisa que permite a interação do músico com o computador em tempo real.

6

GAMES Uma das séries de maior sucesso no que toca a jogos de plataformas

15

ENTREVISTA linguagem C# É uma linguagem de programação orientada a objetos 4


13

A INFORMÁTICA na na formação da nova geração Alunos do Colégio Santa Maria têm contato com a informática desde os primeiros anos de sua formação e Colégio Batista Mineiro mplementa em 2013 o Projeto BATISTA DIGITAL em suas unidades.

16

A TECNOLOGIA da informação e sua influência nas várias gerações Dos “Baby Bomer aos “Alfa” uma visão geral das mudanças na tecnologia da informação

20

A EVOLUÇÃO DOS PROCESSADORES 5


Para a galera que está de olho nos GAMES

Este é um jogo de plataforma

em 3D e foi desenvolvido pela pela Insomniac Games e publicado para PlayStation 2, PlayStation Portable. Ele apresenta excelente gráfico com detalhes realistas, de muita aventura e jogadas mestres com forte ênfase em uma variedade de armas exóticas.

A história gira em torno da improvável parceria de Ratchet e Clank. Rachet, um mecânico da raça Lombax e único sobrevivente de sua raça no universo. Os Lombaxes são cobertos completamente com pelos amarelados, pele aveludada, laranja com listras de baixo para cima em grande parte do corpo com características faciais semelhantes aos de um gato doméstico. Têm grandes pés triangulares com três garras em cada pé, bem como mãos grandes com quatro dedos e um polegar, semelhante a um ser humano. Uma cauda amarela semelhante a de um leão complementa seu visual. Isso os tornam diferentes da maioria das outras espécies no universo.

A parceria dos dois se dá no sentido de juntarem esforços para pôr fim à destruição de Veldin, e posteriormente, para pôr fim à outras forças do mal que querem trazer danos para as galáxias. Através de suas viagens, eles são ajudados pelo Captain Qwark, um héroi de celebridade que demonstrou ser uma fraude em toda a série.

Clank é um pequeno robô fugitivo, detentor de informações sigilosas, que desembarcou em Veldin em busca de um esconderijo.

6


7


MÚSICA E TECNOLOGIA A Interação entre performer e computador em obras eletrônicas

8


Isto é o que dois alunos de percussão da UFMG Universidade Federal de Minas Gerais desenvolvem como pesquisa:

a interação do músico com o computador em tempo real. Os alunos percussionistas Breno Bragança e José Henrique são orientados nesta pesquisa pelo professor Fernando Rocha que já correu mundo em busca de conhecimento musical. Em 2008, concluiu o seu doutorado em música pela McGill University (Montreal, Canadá) com pesquisa em performance de obras para percussão e recursos eletrônicos, carregando em sua bagagem, além disso, um mestrado em música pela UFMG e um Bacharelado em Percussão pela UNESP. Ao longo se sua carreira, tem se dedicado especialmente à performance de música contemporânea, participando, como solista ou membro de grupo de câmara, de inúmeros festivais, tanto no Brasil quanto no exterior (USA, Canadá, Argentina, França e Portugal). De volta ao Brasil em 98, realizou vários concertos de percussão solo em Belo Horizonte, São Paulo e Brasília e criou o Grupo de Percussão da UFMG, com o qual se apresentou nos prin-

cipais teatros de Belo Horizonte assim como em eventos internacionais ligados à percussão. Um olhar criativo e analítico sobre modelos de ‘score orientation’ em obras eletrônicas mistas” A pesquisa feita por Breno Bragança e José Henrique: objetiva trabalhar com a interação entre performer e computador em músicas com eletrônica em tempo real. O modelo usado na pesquisa é chamado de “score orientation”, em que o computador sincroniza suas ações com o performer em momentos estruturais da obra, através da detecção de certos elementos de performance pré- determinados. O foco do trabalho se deu em três modelos de “score orientation” citados por Pestova (2008). Segundo ela a comunicação pode ser feita por: 1. Pedal ou teclado midi; 2. Análise de características do próprio áudio da performance (inferindo características musicais como dinâmica, registro, densidade e ataques).

9


3. Sensores diversos (como de pressão ou de efeitos de granulação e de glissandos, se misturanmovimento); do com os sons reais do triângulo. Tendo como proposta estudar estes três modelos de interação os alunos construíram a partir de estudos de casos que aliam questões de composição, performance e tecnologia a criação artística como uma etapa da metodologia do projeto. Assim, para cada um dos três modelos de interação foram compostas e apresentadas em concertos novas obras para percussão e eletrônica em tempo real. Desta forma, os performers vivenciaram todas as etapas do processo de criação de uma obra eletrônica mista: composição, programação, performance e montagem (e operação) de um sistema de som para concerto.

Seção 3: O computador fica sozinho e transforma aos poucos os sons dos ataques em um som contínuo que desaparece gradualmente. - Utilização de “janelas de segurança flexivas” Essas janelas estabelecem um tempo mínimo e máximo para cada seção. Isso evita que a performance seja interrompida por um defeito no pedal midi (idéia de Kimura, 2003) Em decorrência das características dos efeitos e da sincronização a peça é muito aberta à improvisação. Segundo modelo de interação: Análise de características do próprio áudio da performance (inferindo características musicais como dinâmica, registro, densidade e ataques). - Exemplos do repertório: SprachSchlag (Hans Tutschku), Traces IV (Martin Matalon), Anamorfoses (Sérgio Freire)

A pesquisa dos dois alunos se deu em quatro etapas, sendo a primeira constituída de pesquisa bibliográfica ampla sobre música eletrônica mista, performance de obras com eletrônica e sobre repertório. Em seguida se dedicaram ao estudo do software e ambiente de programação MAX/MSP, passando ao trabalho de composição e performance de peças, construídas sobre os três modelos de Peça criada: score-orientation identificados na bibliografia, Tempestade em copo d’água (Breno Bragança) culminando na reflexão sobre os diversos problemas e soluções encontrados no processo composi- Uso de um medidr de ‘densidade’ (acúmulo de cional e de performance. notas ao longo do tempo – função ‘leaky integrator’ – integrador de vazão) Primeiro Modelo de Score Orientation: O performer fica livre para controlar a densidade Uso de pedal por performer para disparar arqui- do improviso (computador responde à densidade vos de áudio e/ou processamentos de som proposta pelo performer) Exemplos do repertório: Six Japanese Gardens O valor do leaky integrator também é usado para (Kaija Saariaho), Spiked (Glenn Hackbarth), Wooden Stars (Geof Holbrook) Peça criada: Ceu (José Henrique Soares Viana) Triângulo e eletrônica em tempo real Três seções sincronizadas com o performer através do pedal midi Seção 1: Reprodução em delay dos sons gravados em tempo real de um rulo de triângulo. Seção 2: Os sons gravados desaparecem gradualmente e o computador passa a gravar os sons de ataques agora tocados no instrumento. Aos poucos o computador passa a tocar os novos sons com 10


guiar a passagem para a seção seguinte da peça. • Medidor de dinâmica: O computador lê a dinâmica do performer e usa esta informação para controlar parâmetros dos processamentos sonoros. No início da peça a dinâmica controla aspectos da espacialização do som, no caso, a velocidade com que o som passa de uma caixa para outra. • Identificador de subdivisão: A partir de um andamento dado pelo performer (através do uso do pedal), o computador improvisa usando subdivisões deste pulso em 2, 3, 4 ou 6. O perfomer pode controlar qual subdivisão o computador irá usar no seu improviso. Isto é feito porque o computador consegue detectar os ataques produzidos pelo performer e a subdivisão do pulso que ele está usando. Na seção final da peça o pulso do improviso do computador passa a ser controlado pela velocidade dos ataques tocados pelo performer. Terceiro modelo de interação: Uso de sensores - Exemplos do repertório: Laplace Tiger (Alexander Schubert), Le cirque du tambour (Roland Auzet), A Caixa de Pandora (Sérgio Freire), - Peça estudada no projeto: A la luna, de Fernando Rocha e Ricardo Cortés Fernando Rocha e Ricardo Cortés: A la luna (2007) A la luna is a structured improvisation for hyper -kalimba and electronic sounds. The hyper-kalimba, a work in progress undertaken by Fernando Rocha and Joseph Malloch, consists of a kalimba augmented by a piezo microphone and pressure sensors. The data from these sensors is processed electronically by a custom made Max/ MSP patch. The result is an instrument that combines the traditional sound and performance of the kalimba with new electronic sound and performance capabilities. The structure of the piece is based on the poem ‘Noturno Esquematico’ by Frederico Garcia Lorca. The words of the poem (in the voice of Raquel Gorgojo) were manipulated electronically by Ricardo Cortés to create a rich texture of electronic sounds, which are combined with the sounds produced in real-time by the hyper-kalimba. The result is an atmos11

phere of dream and mystery, in which the words of the poem are masked, appearing clearly only when they are randomly triggered by the notes F#, E, D and C, produced by the kalimba. Nocturno Esquematico (F. Garcia Lorca) Hinojo, serpiente y junco Aroma, rastro y penumbra. Aire, tierra y soledad (la escalla llega a la luna) Fernando Rocha e Ricardo Cortés: A la luna (2007). Primeira versão: Sons pré-gravados + kalimba + processamentos sincronizados com o tape + detecção das alturas (C-D-E-F#) para disparar as palavras do texto Segunda versão: uso de pedal para disparar os processamentos (maior liberdade para o intérprete) Terceira versão: Sensores instalados na kalimba (e mapeamento adequado) permitem ao performer controlar todos os processamentos. Grande liberdade para o intérprete. - Fernando Rocha e Ricardo Cortés: A la luna (2007) - Hyperkalimba é um novo instrumento que


tem que ser dominado pelo perfomer. - “The more unfamiliar the technology is to the musician, the more disruptive – even for a brilliant and skilled performer” (Mcnutt, 2003) - Maiores informações sobre a hyper-kalimba: - ROCHA, Fernando; MALLOCH, Joseph . THE HYPER-KALIMBA: DEVELOPING AN AUGMENTED INSTRUMENT FROM A PERFORMER S PERSPECTIVE. In: 6th Sound and Music Computing Conference, 2009, Porto - Portugal. Proceedings of the 6th Sound and Music Computing Conference, 2009. p. 25-29.

develop new skills and flexibility.” (Mcnutt, 2003) Além disso espera-se fomentar a performance dessa música e aumentar o repertório existente na literatura. Referência bibliográfica básica: - Kimura, Mari. “Creative Process and Performance Practice of Interactive Computer Music: A Performer’s Tale.” Organised Sound 8, 3: (2003) 289– 296.

- McNutt, Elizabeth. “Performing Electroacoustic Music: A Wider View of Interactivity.” Organised Análise dos Resultados e possíveis desdobra- Sound 8, 3: (2003) 297– 304. mentos: - Winkler, Todd. Composing Interactive MuA partir da análise da bibliografia e dos estudos de sic: Techniques and Ideas using Max”. Cambridcaso já realizados, algumas observações já podem ge, Massachusetts; London, England: MIT Press, ser enunciadas: 1989. - O foco na interação muitas vezes estimula uma - Pestova, Xenia. “Models of Interaction in Works valorização da improvisação e de uma estética for Piano and Live Eletronics”. McGill University, mais aberta à indeterminação; Montreal, 2008. - O domínio de certos conhecimentos ligados a tecnologia musical pode ser muito útil (quando - Garnett, Guy E. “The Aesthetics of Interactive não essencial) ao performer deste repertório; Computer Music.” Computer Music Journal 25, 1: - Além da prática do seu instrumento, o performer (2001) 21–33. tem que ter tempo e condições para se familiarizar - Rowe, Robert. Interactive Music Systems: Machicom o equipamento utilizado; ne Listening and Composing. Cambridge, Massachusetts and London, England: MIT Press, 1993. - O software utilizado influencia bastante o resul- Agradecimentos: UFMG (Programa de Pós-Gratado da obra. duação em Música), Fundação Itaú Cultural e Por fim, esperamos que o levantamento de discus- Fundep (Bolsa de Iniciação à Pesquisa em Artes) sões relacionadas à composição e à performance da música eletrônica mista possam diminuir as dificuldades encontradas por performers que venham a trabalhar com esse repertório. “Performing with technology requires players to

12


A INFORMÁTICA na formação da nova geração COLÉGIO SANTA MARIA O Colégio Santa Maria – unidade Floresta entende que a tecnologia da informação é de suma importância para seus alunos por isso eles têm contato com a informática desde os primeiros anos de sua formação. Até o 7º ano as aulas de introdução à informática são ministradas com o alunos dispostos em duplas para que um possa ajudar ao outro. Essa experiência acontece com o uso de programas lúdicos em que aprender significa também divertir. A partir do 8º ano as aulas de informática ganham um novo formato, privilegiando o trabalho com editores de textos, filmes e planilhas. Dessa forma os alunos se familiarizam com o método de apresentação de trabalhos usado no ensino médio e consequentemente na faculdade. Assim de forma concreta os alunos do Santa Maria são preparados para o mercado de trabalho. COLÉGIO BATISTA MINEIRO

C

om o objetivo de promover a reflexão e ações referentes à tecnologia da informação, no contexto educacional o Colégio Batista Mineiro implementa em 2013 o Projeto Batista Digital em suas unidades.

O

s alunos da unidade Buritis já fazem uso de iPads como mais um recurso didático. Imersos no mundo digital, o uso da tecnologia proporciona aprender de forma dinâmica e ágil.

A A

nova solução educacional é uma parceria entre o Colégio Batista com o sistema Uno Internacional, e pretende potencializar o aprendizado do aluno acompanhando as exigências do mundo atual. parceria com o Uno Internacional garante ao Colégio Batista acesso às tecnologias de outras empresas de classe mundial e do primeiro nível em educação como: Aplle, Discorery Education, Animal Planet, ETS Toefl, Avalia, Epson, WWF e i-lexium. 13


14


Linguagem * O que é a linguagem C#?

* O C# executa programas para sistemas operacionais linux?

Linguagem de programação orientada a objetos criada pela microsoft que faz parte da sua plataforma .NET é baseada nas linguagens C++ e Java.

sim, você pode trabalhar com o .NET framework alternativo para projetar as suas aplicações, chamado MONO para desktops. É um projeto open-source do .NET Framework focado para o gênero multi -plataforma. Você pode desenvolver no seu próprio Visual Studio, sem a necessidade de perder em produtividade, codificando em um editor de texto simples. No caso dos IPhone e IPods usa-se o MonoTouch, uma outra framework que esta para o Mono mais ou menos como o Silverlight é para o .NET (aplicações .NET não rodam em Windows Phone... mas Silverlight sim).

* Qual é o objetivo da linguagem C#? A linguagem C# tem como objetivo criar aplicações com suporte Web. Podendo também ser utilizado para desenvolvimentos de aplicativos para Windows Fone e Jogos. * Atualmente, o mercado está em alta em qual linguagem?

* Como que funciona a linguagem C#?

Linguagens que trabalham com o paradigma de orientação a objetos e para criação de aplicativos para dispositivos móveis como celulares, tabletes, entre outros. As linguagens C# e Java atendem todos esses requisitos, isso as deixa em alta no mercado, mais também não podemos esquecer a linguagem PHP, Java Script que é utilizada para desenvolvimentos de Web Sites junto com HTML 5.

É uma linguagem definida por métodos e classes como qualquer outra linguagem orientada a objetos. * O Programa Visual Studio, como funciona? (uma breve explicação) O programa visual studio é uma ferramenta de desenvolvimento que facilita muito o trabalho dos desenvolvedores na criação de Layout, pois não temos que nos preocupar em criar e formatar os objetos através de linhas de comandos. No visual studio criamos primeiro o layout dos projetos, formulários, botões, e baseado no layout e que desenvolvemos as funcionalidades dos projetos. E uma ferramenta simples e pratica de utilização.

* Há diferença entre a linguagem C# e o Java? Sim. Existem diferenças entre funções que existem em uma linguagem que não existem na outra e também diferenças nas ferramentas de desenvolvimentos. * Quais são as vantagens e desvantagens do C# em relação as demais linguagens existentes?

* Como o Visual Studio há outros programas para empregar a linguagem C#? Quais? Além do Visual Studio temos também o SharpDevelop com ferramenta de desenvolvimento.

Hoje as linguagens de programação faz tudo o que a outra faz, não existindo uma vantagem ou desvantagem entre elas, o que pode mudar e a preferencia de desenvolvedor para desenvolvedor. 15


AS GERAÇÕES e a tecnologia DA INFORMAÇÃO

O

surgimento da internet aconteceu no período da Guerra Fria ocorrido entre o final da Segunda Guerra Mundial (1945) a 1991. Esse avanço tecnológico se deu graças aos interesses militares de se criar uma comunicação alternativa, caso os meios tradicionais de telecomunicações sofressem algum ataque inimigo e fossem destruídos.

Muito embora tenha sido criada para fins militares, nas décadas de 1970 e 1980 tornou-se um importante meio de comunicação acadêmico. Estudantes e professores universitários, principalmente dos EUA, trocavam ideias, mensagens e descobertas pelas linhas da rede mundial.

O certo é que nos dias atuais é impossível pensar no mundo sem a Internet. Ela faz parte dos lares, empresas e escolas do mundo todo, possibilitando o acesso a informações e notícias de todos os lugares com apenas alguns cliques. Estar conectado a rede mundial passou a ser uma necessidade de estrema importância. Esse “mundo novo” tem se apresentado para muitos como uma fascinante descoberta de novas possibilidades de interação social a partir da inclusão digital.

CLASSIFICAÇÃO DAS GERAÇÕES

Mas foi na década de 1990 que aconteceu sua expansão através do surgimento Houve um tempo em que de vários navegadores , pasuma geração era definida a sando a ser utilizada por cada 25 anos, porém, nos vários segmentos sociais dias de hoje os especialistas proporcionando, estudos e apontam que uma nova geraentretenimento: Estudantes ção surge a cada 10 anos. Nas buscavam informações para empresas, isso implica em pesquisas escolares; desempessoas de diferentes idades pregados iniciaram a busca e costumes, vivendo em um de empregos através de simesmo ambiente de trabalho, tes de agências de empregos trocando experiências e geou enviando currículos por renciando conflitos em períoe-mail; as empresas descobriram um excelente cami- dos cada vez menores. nho para melhorar seus lucros com as vendas online; amantes dos jogos se divertiam em sites de games e as salas de chat tornaram-se pontos de encontro para um bate-papo virtual a qualquer momento. geração Baby Boomers, são os nascidos logo após o término da segunda Guerra Em 2006 surge uma nova era na internet com as mundial. O termo em inglês pode ser traredes sociais, primeiro o Orkut , depois o Face book duzido livremente como “explosão de bee o Twitter. A partir de 2010, um novo serviço virou bês”, fenômeno social ocorrido nos Estados Unidos febre no mundo da Internet. Conhecidos como sino final da Segunda Guerra, ocasião em que os soltes de compras coletivas, eles fazem intermediação dados voltaram para suas casas e conceberam filhos entre consumidores e empresas. em uma mesma época. Os Boomers também são

Geração Baby Boomer

A

16


identificados como inventores da era “paz e amor”, pois tinham aversão aos conflitos armados. Preferiam a música, as artes e todas as outras formas de cultura como instrumentos para a evolução humana. Por outro lado se apresenta como uma geração contemporânea ao nascimento da tecnologia, muito embora não tivesse acesso a ela. Caracterizam por gostarem de um emprego fixo e estável e terem seus valores fortemente embasados no tempo de serviço, preferindo o reconhecimento por sua experiência e não por sua capacidade de inovação.

R

Geração Y

efere-se a uma determinada geração, nascida entre os anos de 1980 e 2000. São os filhos da Geração X e netos dos Baby Boomers. Como é uma geração nova ainda não há uma conceituação clara de suas características a não ser pelo fato que nasceram em um mundo que estava se transformando em uma rede global. A Internet, e-mails, redes de relacionamento, recursos digitais, fizeram com que a geração Y fizesse milhares de amigos ao redor do mundo, sem ao menos terem saído da frente de seus computadores. Foi uma geração geração X é filha dos Baby Estudiosos do comportamento que em pouco tempo de vida já presenBomeers e surge já fazendo humano, com algumas variações, ciou os maiores avanços na tecnologia uso dos recursos tecnológicos datam o nascimento dos integran- e diversas quebras de paradigma do promovidos por sua precur- tes da geração x entre os anos de mercado de trabalho. Por conseguinte, sora. Esta classificação surgiu a partir 1960 a 1980. Essa geração viven- num ambiente tão inovador, a Geração de um estudo promovido por uma re- ciou no Brasil acontecimentos Y se individualiza ao apresentar caracvista Britânica e realizado pela sociólo- como as “Diretas Já” e o fim da terísticas como capacidade em fazer vága Jane Deverson. A ideia era classificar ditadura. rias coisas ao mesmo tempo, como oua geração de adolescentes considerados Primeira geração que domina e vir música, navegar na internet, ler os muito rebeldes para os padrões da épo- gosta de lidar com computadores e-mails, entre várias outras que, em tese, ca. Por serem filhos de uma geração e equipamentos eletrônicos; não atrapalham os seus afazeres profismais comportada, o estudo causou a resionais. Essa geração também apresenta cusa da revista que o havia encomendado, pois para um desejo constante por novas experiências, o que ela os resultados foram fortes demais. Diante disso no trabalho resulta em querer uma ascensão rápida, Jane Deverson resolveu publicá-lo junto com corres- que a promova de cargos pondente americano Charles Hamblett, dando-lhe o períodos relativamente nome de geração X. Não se sabe ao certo o porquê curtos e de maneira con- A Internet, e-mails, redes de desta classificação, mas pode ser uma referência ao tínua. A mobilidade nas relacionamento, recursos digiX utilizado na matemática, como uma incógnita a comunicações é outra ca- tais, fizeram com que a geração ser descoberta. Estudiosos do comportamento hu- racterística associada ao Y fizesse milhares de amigos ao mano, com algumas variações, datam o nascimento consumo da Geração Y. redor do mundo, sem ao menos dos integrantes da geração x entre os anos de 1960 A definição foi criada por terem saído da frente de seus a 1980. Essa geração vivenciou no Brasil aconte- uma revista de publicidacomputadores. cimentos como as “Diretas Já” e o fim da ditadura. de e propaganda Norte Americana, que definiu São estas as principais características encontradas na em 1993, os hábitos de geração denominada X: consumo dos adolescentes da época. Como eram fi•busca um equilíbrio entre os âmbitos profissional e lhos dos integrantes da geração X usou-se a próxima pessoal; letra do alfabeto para denomina-la. •não visualiza carreira extensa na mesma empresa; Entre as principais características da Geração Y evi•empreendedores muito independentes e centrados; denciam as seguintes: •altamente pragmáticos, gostam de praticar a teoria; - Estão sempre conectados; •tem como principal competência a liderança; - procuram informação fácil e imediata; •apreciam desafios e o trabalho em equipe; - preferem computadores a livros; •primeira geração que domina e gosta de lidar com - Preferem e-mails a cartas; computadores e equipamentos eletrônicos; - digitam ao invés de escrever. •Quando determinam um objetivo, trabalham com - vivem em redes de relacionamento. entusiasmo; •esperam sempre por um feedback; •fiel aos ideais pessoais, distinto dos objetivos organizacionais; •Indiferentes às questões políticas, se mantém expectadores dessa área social; •individualistas sem perda da convivência em grupo; A geração Z, apesar de ter recebido essa denomi•exigem com mais rigor os seus direitos; nação com a próxima letra do alfabeto da geração •busca incessante pela liberdade.

A

Geração X

Geração Z

17


Y, não é considerada filha desta geração. Não está definida por uma época, mas sim por um hábito de comportamento. A letra Z indica uma geração de pessoas preocupadas cada vez mais com a conectividade com os outros de forma permanente e estão preocupadas com a ecologia e com o meio ambiente. Assim, pessoas da geração Z acabam trazendo traços de comportamento das gerações anteriores, aliado a uma forte Responsabilidade Social e preocupação com o meio ambiente e sustentabilidade do planeta.

tual é fácil e bem desenvolvida, muitas vezes a vida no real é prejudicada pelo não desenvolvimento de habilidades em relacionamentos interpessoais. Vivese virtualmente aquilo que a realidade não permite. Talvez daí venha o fascínio dos jovens por jogos fantasiosos onde estes podem ser o que quiserem, sem censura ou reprimenda.

É também chamada de Geração Silenciosa, talvez pelo fato de estarem semEnquanto as gerações pre de fones de ouvido (seja em ônibus, anteriores se conectavam universidades, em casa...), escutarem pouco e falarem menos ainda – pode com o mundo através de um computador de mesa a ser definida como aquela que tende ao geração Z está constante- egocentrismo, preocupando-se somente mente disponível e conec- consigo mesmo na maioria das vezes.

Enquanto as gerações anteriores se conectavam com o mundo através de um computador de mesa a geração Z está constantemente disponível e conectada através de dispositivos móveis. Sua noção de grupo passa a ser virtual. En- tada através de dispositivos quanto as gerações anteriores tem commóveis. portamento social de forma coletiva, a geração Z passa a possuir, cada um seus Os jovens da Geração Z apresentam um proprios equipamentos. perfil mais imediatista. Querem tudo para agorae não têm paciência com os mais velhos quando estes precisam de ajuda com algum equipamento eletrônico ou algum novo recurso da informática. A Geração Z é contemporânea a uma realidade coAlguns sociólogos datam o nascimento das pessonectada à Internet, em que os valores familiares, as da geração Z como sendo no final do século XX como sentar-se à mesa e conversar com os pais, não entre 1990 a 2009, muito embora ser Z tenha mais são tão expressivos quanto aos contatos virtuais esa ver com estilo de vida do que com data de nascitabelecidos pelos jovens na Web. Se a vida no virmento. 18


A

Geração Alfa

última letra do alfabeto latino foi usada para a classificação da geração Z, que letras usar para classificar as gerações que se seguirão a partir de 2010? A solução encontrada pelos sociólogos foi usar o alfabeto grego. Assim a geração nascida a partir de 2010 recebeu o nome de Alfa (primeira letra do alfabeto grego) Segundo os estudiosos esta geração será caracterizada pela instrução e educação. Nenhuma outra teve tanto acesso ao conhecimento humano como esta que agora começa a se formar. A geração Alfa será composta tanto de filhos da geração y como da Z e nascerão em um mundo conectado em rede.

Conclusão

A

tualmente, muitos líderes e pessoas comuns das gerações Baby Boomer e X estão se tornando cada vez mais Y. Isso devido ao crescimento exponencial do volume de informações que devem ser consumidas diária e instantaneamente. Como é o caso de Dady Martins uma mulher que já na terceira idade e sem experiência com a computação, com um pouco de esforço próprio e ajuda de sua filha navega em sua página do face book com facilidade e alegria. Testemunha aos de sua idade que sua vida ganhou um novo significado a partir de então. Na verdade a classificação das várias gerações está mais relacionada aos hábitos e comportamentos do que sua data de nascimento. Sendo assim Segundo os estudiosos esta independente da geração a geração será caracterizada que a pessoa pertença, para pela instrução e educação. ter sucesso profissional de Nenhuma outra teve tanto forma geral, ela precisa se acesso ao conhecimento relacionar bem com a techumano como esta que nologia de informação e a agora começa a se formar. capacidade de trabalhar em equipe. Nestes dois quesitos encontramos características da geração Z e X. Em qualquer que seja a organização multisetorial, nenhum profissional é dotado de todas as competências necessárias a todos os seus processos, desde o atendimento até a produção. A evolução profissional individual sempre depende do aprendizado, que por sua vez depende da troca de experiências. Essa troca só é possível de pessoa para pessoa independente de sua faixa etária.

Todas as gerações têm a ensinar umas às outras e feliz daquele que é capaz de ouvir corretamente e se impor corretamente e o comportamento correto é aquele que visa o equilíbrio, sem excessos. As gerações mais antigas precisam entender que o mais novo possui os atributos da inovação, da energia, da motivação e da habilidade em lidar com o novo. Hoje tudo está conectado e as tarefas a serem executadas pelas pessoas dependem dessa conexão. Já os mais novos, independente da sua competência e da sua aptidão para o exercício aprimorado de suas funções, precisam atingir o equilíbrio através da sobriedade dos mais velhos.

Referências

-http://www.tecmundo.com.br/curiosidade/2391-o-que-e-a-geracao-z-.htm#ixzz2a1EPFSk5 -http://dinheiro.br.msn.com/fotos/galeria-de-fotos.aspx?cp-documentid=23983357&page=4#image=5 -http://www.coisaetale.com.br/2012/04/as-geracoes-baby-boomer-x-y-e-z/ Patricia Canarim (@patriciacanarim), jornalista atuante em marketing e presença digital. Responsável pela comunicação dos portais do Grupo AssociadosWeb, como o Nautilos Marketing Digital. Mantém o blog Patricia Canarim. - See more at: http://webinsider.com.br/2012/04/07/o-nascimento-da-internetcomecou-na-2a-guerra-mundial/#sthash.zLQ0PjeU.dpuf

19


EVOLUÇÃO dos computadores

O processador, também conhecido como CPU, é peça fundamental dos computadores. E não estamos falando apenas dos famosos PCs. Celulares, video games, smartphones, tablets: todos esses dispositivos precisam de processadores para funcionar. Esse componente tão vital é responsável por carregar e realizar as operações aritméticas e lógicas de que os programas de computador fazem uso. Portanto, nada funciona sem a famosa CPU.

hoje de como uma CPU funciona. Antes, os softwares não eram compatíveis com todos os modelos de computador, já que eles eram desenvolvidos especificamente para cada máquina.

Isso estava relacionado ao fato de que cada computador era como uma plataforma diferente. Muitas vezes, existia incompatibilidade até mesmo entre modelos de um mesmo fabricante. Por incrível que pareça, isso não chegava a ser uma barreira preocuLevou décadas para que chegássemos aos modelos pante, visto que a produção de software ainda não atuais de processadores. Na verdade, demoramos era alta e não existiam muitos programas disponíalguns anos para chegar também à ideia que temos veis.

Precursores da CPU moderna: anos 40 50 e 60

Painéis do ENIAC em exposição na Universidade da Pensilvânia (Fonte da imagem: Wikimedia Commons)

20


o Mark I, da Universidade de Harvard, marcam o início da era dos computadores modernos, capazes de armazenar programas. Durante a década de 50, a organização interna dos computadores começou a ser repensada. Esse foi o momento em que os processadores começaram a ganhar funcionalidades básicas, como registradores de índices, operandos imediatos e detecção de operadores inválidos. No início da década de 60, a IBM desenvolveu uma nova abordagem: planejou uma família de computadores que poderiam executar o mesmo software, com poder de processamento e preços diferentes. Com isso, os programas não seriam mais dependentes de máquina, mas compatíveis entre todos esses modelos. Para colocar isso em prática, a IBM acabou criando um computador virtual conhecido como System/360, ou simplesmente S/360. Podemos pensar nesse sistema como um conjunto de instruções e capacidades que todos os computadores da família S/360 teriam

EDVAC instalado no Laboratório de Pesquisas Balísticas dos EUA

Os primeiros computadores, anteriores à década de em comum. 50, possuíam um diferencial considerável, se comparados com as máquinas de hoje: eles não eram capazes de armazenar programas. Alguns deles, como o ENIAC, que teve seu desenvolvimento iniciado em 1943, tinham inicialmente o plano de armazenamen- Nos modelos apresentados acima, os processadores to de softwares em seu interior. Mas, para agilizar o ainda não eram compostos por uma unidade central, lançamento da máquina, essa ideia acabou ficando para trás. Dessa forma, o ENIAC tinha que ser modificado fisicamente cada vez que uma tarefa diferente fosse executada. Cabos deveriam ser reposicionados, chaves ligadas ou desligadas e um novo programa ser carregado. Era dessa forma que o processamento em si era realizado.

Processadores Modernos

Em 1945, a ideia de uma unidade central de processamento capaz de executar diversas tarefas foi publicada por John Von Neumann. Chamado de EDVAC, o projeto desse computador foi finalizado em 1949. Essa é a origem dos primeiros modelos “primitivos” de processadores da forma como os conhecemos. Além disso, o EDVAC e outros computadores, como 21

Intel 4004 foi o primeiro microprocessador da história (Fonte da imagem: Wikimedia Commons)


mas por módulos interconectados entre si. Foi só no início da década de 70 que surgiram as CPUs desenvolvidas totalmente em circuitos integrados e em um único chip de silício.

Geração Pré-x86 O Intel 4004 foi o primeiro microprocessador a ser lançado, em 1971. Sendo desenvolvido para o uso em calculadoras, essa CPU operava com o clock máximo de 740 kHz e podia calcular até 92 mil instruções por segundo, ou seja, cada instrução gastava cerca de 11 microssegundos.

A arquitetura x86, lançada em meados da década de 70, ainda serve como base para boa parte dos computadores atuais. O primeiro processador que aproveitou todo o seu potencial foi o Intel 8086, de 1978. Pela primeira vez, a velocidade do clock alcançava 5 MHz, utilizando instruções reais de 16 bits. O nome “x86” veio do fato de que o nome dos processadores que vieram depois do Intel 8086 também terminava em “86”. Ainda no mesmo ano, foi lançado o 8088, sucessor que possuía barramento externo de 8 bits, porém, com registradores de 16 bits e faixa de endereçamento de 1 MB, como no 8086. Esse foi o chip utilizado no IBM PC original.

Com o sucesso do 4004, a Intel desenvolveu o processador 8008, em 1972. Esse era uma CPU de 8 bits, com barramento externo de 14 bits e capaz de endereçar 16 KB de memória. Seu clock trabalhava na frequência máxima de 0,8 MHz.

Nos anos seguintes, a Intel desenvolveu os modelos 80186 e 80188, criados para serem usados com sistemas embarcados. Em 1982, a capacidade de processamento chegou ao patamar de 6 e 8 MHz, com o Intel 80286. Posteriormente, as empresas AMD e Harris Corporation conseguiram romper essa barreira, cheEsse modelo foi substituído, em 1974, pelo Intel 8080, gando a 25 MHz. que apesar de ainda ser um processador de 8 bits, podia executar, com algumas limitações, operações de 16 bits. O 8080 foi desenvolvido, originalmente, para controlar mísseis guiados. Tinha clock limite de 2 MHz, um valor muito alto para a época, era capaz de realizar centenas de milhares de operações por seComo o nome sugere a x86-32 é arquitetura x86 de gundo e de endereçar até 64 KB de memória. 32 bits, utilizada até hoje em muitos computadores. Grosso modo, podemos dizer que, com exceção de processadores de 64 bits e aqueles de arquitetura ARM, todos os outros existentes ainda hoje são herdeiros das características dessa geração.

Entram as CPUs de 32 bits (x86-32)

A família x86 de 16 bits

Os famosos 386 e 486

Microprocessador Intel 80286 de 8 MHz (Fonte da imagem: Wikimedia Commons)

22

Processador 486 DX, mais rápido se comparado com a versão SX (Fonte da imagem: Wikimedia Commons).


As CPUs 80386 e 80486, lançadas entre o meio e o fim da década de 80, trabalhavam com clocks que iam de 33 MHz a 100 MHz, respectivamente. O 80386 permitiu que vários programas utilizassem o processador de forma cooperativa, através do escalonamento de tarefas. Já o 80486 foi o primeiro a usar o mecanismo de pipeline, permitindo que mais de uma instrução fossem executadas ao mesmo tempo. Para o 80486, existiram diversas versões, sendo que cada uma delas possuía pequenas diferenças entre si. O 486DX, por exemplo, era o top de linha da época e também a primeira CPU a ter coprocessador matemático. Já o 486SX era uma versão de baixo custo do 486DX, porém, sem esse coprocessador, o que resultava em um desempenho menor.

A guerra entre Intel e AMD

Em 1995, a Intel lançava o Pentium Pro, sexta geração de chips x86 e que possuía uma série de melhoramentos em relação ao seu antecessor. Essa seria a base para os futuros lançamentos: Pentium II, Pentium III e Pentium M. Paralelamente, a AMD começava a ganhar mercado com modelos similares, principalmente como o AMD K5, forte concorrente do Pentium original. Dois anos depois, o Pentium II foi lançado, atingindo o clock de 450 MHz. Nessa mesma época, a AMD desenvolveu CPUs que batiam de frente com a Intel, como o AMD K6. Por esse motivo, ambas as empresas travaram uma espécie de “corrida”, competindo para ver quem conseguia o maior desempenho e valor de clock.

A lei de Moore Em 1965, Gordon Moore, um dos fundadores da Intel, afirmou que o número de transistores em um chip dobraria, sem custo adicional, a cada 18 meses. Tal afirmação ficou conhecida como a Lei de Moore, a qual foi válida durante anos, principalmente no final da década de 90. Sempre que uma empresa lançava um modelo de processador, o concorrente a superava meses depois. Isso ficou muito evidente nos anos de 1999 e 2000, quando o Pentium III e o AMD Atlhon (K7) estavam guerreando pelo maior clock. Por um período de tempo, a AMD liderou a disputa, pois o Atlhon, que trabalhava com frequências maiores do que 1 GHz superou o Pentium III. A reviravolta da Intel veio com o lançamento do Pentium 4, em 2001, que trabalhava com até 2 GHz e levou a empresa de volta ao topo do mercado. As versões de baixo custo dessas CPUs, Celeron (InAs séries de processadores Intel e AMD marcaram tel) e Duron (AMD), também disputavam fortemenépoca no mundo da informática, através de suas di- te o lugar mais alto no ranking do processador “B” ferentes versões. O primeiro Pentium (Intel), lançado mais vendido. em 1993, apresentava várias melhorias sobre o 80486, principalmente por uso da superescalabilidade, ou seja, a replicação de hardware para que mais instruções fossem executadas ao mesmo tempo. Seu clock inicial era de 100 MHz, o qual chegou a atingir 200 MHz com o passar do tempo de desenvolvimento. Processador Intel Pentium A80501, de 66 MHz (Fonte da imagem: Wikimedia Commons).

Multicore: o fim da lei de Moore

23


Conforme a tecnologia dos processadores foi progredindo, o tamanho de seus transistores foi diminuindo de forma significativa. Contudo, após o lançamento do Pentium 4, eles já estavam tão pequenos (0,13 micrômetros) e numerosos (120 milhões) que se tornou muito difícil aumentar o clock por limitações físicas, principalmente pelo superaquecimento gerado. A principal solução para esse problema veio com o uso de mais de um núcleo ao mesmo tempo, através da tecnologia multicore. Assim, cada núcleo não precisa trabalhar numa frequência tão alta. Se o esquema de escalonamento de tarefas funcionasse de maneira eficiente, seria possível trabalhar com quase o dobro do clock. Um processador dual-core de 1,5 GHz, por exemplo, poderia ter um desempenho semelhante a uma CPU de núcleo único de 3 GHz. Um componente chamado de escalonador determina em qual dos núcleos uma tarefa deve ser executada. Mas como o escalonador demora certo tempo para fazer essa decisão, na prática fica quase impossível atingir o dobro exato de desempenho. Portanto, com o advento do processador multicore, a lei de Moore tornou-se inválida, visto que já não era mais possível aumentar a frequência do processador como antes.

Anos 2000: a era de 64 bits No começo dessa década, ficou claro que o uso de 32 bits não seria mais eficiente, visto que, no máximo, apenas 4 GB de memória RAM poderiam ser endereçados nessa plataforma. Logo, a solução mais natural foi o desenvolvimento de novas arquiteturas que passassem a trabalhar com 64 bits ao invés de 32. Tanto a AMD quanto a Intel trabalhavam em seus próprios projetos de CPUs de 64 bits, mas quem venceu a disputa foi mesmo a AMD, com o x86-64, que mais tarde foi renomeado para AMD64. Isso aconteceu, principalmente, pelo fato de a AMD ter evoluído diretamente o x86-32, enquanto que a Intel tentou criar algo novo, do zero.

O AMD Opteron, de abril de 2003, foi a primeira CPU de 64 bits da empresa (Fonte da imagem: AMD).

arquitetura x86-32 pela AMD. Logo, todos os modelos de processadores 64 bits comerciais atuais rodam sobre o x86-64. O AMD Athlon 64 foi um dos maiores representantes dessa arquitetura.

Blackfin Ainda em 2000, uma nova arquitetura de processadores foi lançada pela empresa Analog Devices. A Blackfin, como foi batizada, é uma família de microprocessadores de 16 e 32 bits que possuía, como diferencial, um processador de sinal digital (DSP) embutido, usado para processar áudio e vídeo. Aliado a outras características de design, esse processador permite um consumo menor de energia aliado ao alto desempenho. O uCLinux é um dos sistemas operacionais que suporta esse tipo de CPU.

Pentium 4 e Pentium D

Em 2002, a Intel lançou o Pentium 4, processador que podia alcançar clocks muito altos, chegando até a 3,8 GHz em condições especiais. Os últimos modelos dessa linha também incluíam a tecnologia Hyperthreading (HT), funcionalidade que fazia um proVisto esse acontecimento, as empresas em questão cessador físico trabalhar como se fossem duas CPUs criaram um acordo no uso dessas arquiteturas, no lógicas. qual a AMD licenciou para a Intel o uso do x86-64. Por outro lado, a Intel também tornou legal o uso da Posteriormente, o Pentium 4 foi substituído pelo 24


Em 2006, a Intel inicia a sua linha Core, para consumidores que precisam de mais poder de processamento. Faz parte dessa linha o modelo Core 2 Duo, que demonstra uma capacidade incrível se comparado com os dual-core anteriores da empresa. Na mesma época, foi lançada a versão Pentium Dual Core, que apesar de trazer uma boa relação custo-benefício, se mostra inferior ao Core 2 Duo.

Intel Pentium 4 Willamette para Socket 423 (Fonte da imagem: Wikimedia Commons)

Pentium D, duas linhas de processadores dual-core de 64 bits. Mais tarde, foi lançado o Pentium Extreme Edition, que possuía desempenho um pouco melhor do que o Pentium D, além de tecnologias extras que o tornavam mais apto para tarefas pesadas. Esse modelo também fazia uso da tecnologia HT, podendo simular a existência de até quatro núcleos. Outra novidade da Intel foi o Pentium M, uma versão de baixo consumo do Pentium Pro desenvolvido para dispositivos móveis. Esse processador foi lançado em 2003. Em 2005, a AMD apresentou ao mundo o seu primeiro processador dual-core, o Athlon 64 X2.

Intel Core

Outro grande lançamento feito pela Intel foi o Core 2 Quad, processadores com quatro núcleos e que, apesar de demonstrarem alto desempenho, acabam perdendo em algumas tarefas para o Core 2 Duo. Uma versão posterior, nomeada Core 2 Extreme Quad Core, também foi lançada, proporcionando mais velocidade de clock, que pode chegar até 3,2 GHz. Em 2010, a Intel anunciou os modelos Core i3, i5 e i7. Além disso, a empresa também lançou uma segunda geração desses processadores, que vem sendo muito bem aceita pelos consumidores. Essa nova leva possui mudanças na memória cache, melhorias no modo Turbo Boost e aperfeiçoamentos na própria arquitetura. Porém, o que chama a atenção é a presença de um chip gráfico acoplado com o processador principal (APU). Confira as diferenças entre as duas gerações no artigo de Fábio Jordão. A empresa também vem trabalhando em uma nova microarquitetura de processadores, a Ivy Bridge, que deve possuir suporte para PCI Express 3.0, DirectX 11 e OpenCL 1.1. A empresa espera obter um aumento de até 30% de desempenho no processamento gráfico se comparado com o chipset Sandy Bridge, presente nos processadores i5 e i7.

As últimas novidades da AMD Quando o assunto é AMD, a história possui algumas diferenças. Depois dos processadores dual-core, a linha Athlon II apresentou processadores de três (X3) e quatro núcleos (x4), todos com versões econômicas, ou seja, com menor desempenho e mais baratos. Um dos últimos grandes lançamentos da AMD foi o Athlon Neo, chip desenvolvido para notebooks ultrafinos e que precisam de uma duração maior da bateria. Outra linha apresentada pela fabricante foi a dos processadores Sempron, uma versão simplificada do Athlon, com apenas um núcleo e voltada para consumidores menos exigentes. Quem não dispensa um bom jogo ou precisa de processamento de alto desempenho pode contar com

Base do processador Intel core i7-940 (Fonte da imagem: Wikimedia Commons)

25


AMD Phenon II possui modelos de 3 e 3,1 GHZ (Fonte da imagem: AMD)

os processadores Phenom, que foram lançados para competirem de igual para igual com as CPUs da Intel. Esses modelos também receberam versão de três (X3) e quatro (X4) núcleos. A segunda geração dessa linha, Phenom II, conta também com processadores dual-core de 3 e 3,1 GHz. A surpresa mesmo fica por conta dos processadores Phenom II X4, de quatro núcleos e alto desempenho, com modelos de até 3,4 GHz. Além desses, servidores ou estações de trabalho que exigem uma carga maior de processamento também podem se beneficiar dos processadores Opteron, que podem operar com até seis núcleos. A AMD também lançou uma linha de CPUs para notebooks que, apesar de ser dual-core, possui um consumo eficiente de energia, poupando assim a carga da bateria dos portáteis. Mas o que vem ganhando espaço é mesmo a Fusion, linha de APUs (Unidade de Processamento Acelerada) da AMD. Com a junção de CPU e GPU em um único chip, é possível obter melhor desempenho a um custo reduzido. Com tantos modelos de processadores disponíveis, pode ter ficado confuso saber quais modelos ainda são vendidos e o que comprar na hora de fazer um upgrade. Mas não se preocupe: aqui você encontra artigos que podem ajudá-lo a decidir qual é o processador ideal para você, seja Intel ou AMD.

26


27



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.