Polyteck | Edição 04

Page 1

REDES

NEURAIS

De diferenças no contraste entre pixels para a descoberta de gatos no YouTube. pág. 10

Distribuição Gratuita nº 04 | fevereiro 2014

Biotecnologia Empreendedorismo e Inovação Web e Design Sustentabilidade e Ambiente www.polyteck.com.br | Revista Polyteck | 1 Engenharia, Energia e Materiais Nanotecnologia



Uma das grandes dificuldades que profissionais recém-formados enfrentam é que, por conviverem apenas com estudantes do mesmo curso na faculdade, acabam não sabendo como lidar com profissionais de outras áreas no trabalho. No MIT, uma disciplina inspiradora dá o exemplo de como deixar os alunos prontos para o mundo real fazendo-os “botar a mão na massa”.

Preparados para o

mundo

real

“Tudo depende do processo,” disse o professor do Massachusetts Institute of Technology Warren Seering. O professor Seering está se referindo à sua turma de design do primeiro semestre de 2013, Curso 2.739 (Design – Projeto de Produto) – mas ele poderia facilmente estar falando do desenvolvimento do produto em si. “Nós queremos que os alunos desta turma terminem o curso com um conjunto de métodos facilmente disponíveis que possam ser utilizados em qualquer situação durante o processo de desenvolvimento”, disse Seering, professor de Engenharia Mecânica. “Esta é a sua introdução a uma abordagem muito mais estruturada na hora de desenvolver novos produtos”. Os alunos do curso 2.739 vivenciam esta estrutura em primeira mão enquanto projetam e desenvolvem um novo produto ao longo do semestre, em uma equipe de seis a oito integrantes. Cada equipe consiste de pelo menos um aluno de engenharia, um estudante da Escola Sloan de Gerência do MIT e um estudante da Escola de Design de Rhode Island (RISD), que é parceira do MIT neste curso. O benefício de colocar estudantes de diferentes áreas para trabalharem juntos – engenharia, empreendedorismo e design industrial – representa a “primeira lição de mundo real” do estudante. Seering comenta que o objetivo é aprender como valorizar e colaborar com colaboradores de outras disciplinas enquanto desenvolvem juntos um produto de sucesso. “Na apresentação dos produtos do ultimo semestre, eu fiz um jogo com um dos avaliadores para ver se ele conseguia adivinhar de qual escola era cada estudante – Escola de Engenharia, Escola de Gerência (ambas do MIT) ou da RISD”, disse Seering. “Foi muito difícil para eles. Ao final do projeto, não é tão fácil dizer a diferença. E é exatamente isso o que

www.polyteck.com.br | Revista Polyteck | 3


queremos. Isso significa que os alunos realmente aprenderam uns com os outros”. O Curso 2.739 reúne estes três grupos de estudantes duas vezes por semana: no MIT, para palestras tanto dos professores do MIT quando da RISD (o professor Steven Eppinger, da Sloan, e o professor Matt Kressy, da RISD, dividem as aulas com Seering), seguido por uma aula de “mãos à obra” no laboratório. O tempo que passam no laboratório tem como foco o projeto principal do curso: desenvolver um novo produto. Este processo deve envolver pesquisa de mercado, projeto, desenvolvimento do protótipo, finanças, propaganda, testes e uma apresentação final do protótipo manufaturado. Segundo Seering, “Os engenheiros mecânicos trabalham a viabilidade e métodos de produção, mas também queremos que aprendam como fazer as partes que os outros membros da equipe fazem. Nós queremos que eles sejam capazes de interagir com outros tipos de pessoa de maneira esclarecida. Como o grupo é grande, eles precisam ajudar uns aos outros, ou não conseguirão terminar o projeto”. Segundo a estudante Stephanie Scott, que fez o curso no primeiro semestre de 2013, “trabalhar com uma equipe com experiências diversas e ímpares foi uma experiência incrível. “Às vezes, membros da equipe discordavam sobre qual abordagem tomar. Estudantes com experiências diferentes tendem a priorizar partes diferentes do produto. Nós trabalhamos juntos para explorar as compensações de cada abordagem diferente, e o processo finalmente levou ao desenvolvimento de um produto melhor sucedido ”. As apresentações finais acontecem na RISD e no MIT em anos alternados e acontecem em frente a uma plateia, assim como uma banca examinadora. Os alunos são julgados pelo valor que a ideia do seu produto tem no mercado, a sua justificativa para a oportunidade de mercado, a qualidade do protótipo e a eficiência da apresentação. Antes de apresentação, os grupos frequentemente patenteiam seus produtos, sendo que alguns até prosseguem com a manufatura e vendas assim que o curso termina.

COLOCAR ESTUDANTES DE DIFERENTES ÁREAS PARA TRABALHAREM JUNTOS REPRESENTA A “PRIMEIRA LIÇÃO DE MUNDO REAL” DO ESTUDANTE. O OBJETIVO É APRENDER A VALORIZAR E COLABORAR COM ESTUDANTES DE OUTRAS DISCIPLINAS ENQUANTO DESENVOLVEM JUNTOS UM PRODUTO DE SUCESSO.

LEIA MAIS

A equipe da Fantastic Faces desenvolveu uma máscara para crianças doentes que oferece um tom de personalização e diversão, sem sacrificar o conforto e a eficiência. O sucesso do projeto só foi possível graças à interação constante entre alunos de áreas diferentes. Foto: MIT News Office.

4 | Revista Polyteck | www.polyteck.com.br


Em maio de 2013, as apresentações finais aconteceram na RISD e revelaram produtos que resolviam problemas reais dos consumidores. Uma equipe, AvaTech, resolveu o problema de prever avalanches para alpinistas. A equipe (composta por Allie Owens, Jim Christian, Sam Whittemore, Tom Sanderson, Paul Meggs, Tais Mauk, Hugo Ni e Brint Markle) desenvolveu um sensor dobrável que pode ser enfiado na neve até profundidades consideráveis para analisar e transmitir a quantidade de neve em relação ao gelo em camadas específicas. Recentemente, eles iniciaram uma empresa baseada na sua inovação. Outra equipe se voltou para a vergonha e desmoralização que crianças doentes em hospitais sentem em ter de usar mascaras. O grupo (Stephen Frechette, Michael Joyce, Jeff Mekler, Stephanie Scott, Ryan Surveski, Denise Thornberry, Chris Wilson, e Tianyu Zhu) desenvolveu o Fantastic Faces, que é um kit de decoração de mascaras que tem como objetivo adicionar o elemento diversão para uma situação desanimadora. Eles também lançaram uma empresa. Um terceiro grupo, Steam-Ez (Ash Koul, Elina Hu, Emily Albert, Josh Przybylko, Lana Cohen, Lauren Lo, Paulina Mustafa e Wooho Park),

desenvolveu um produto “tudo em um” para limpar os resquícios de comida difíceis de eliminar do interior dos fornos de microondas. Este produto é uma esponja especialmente desenvolvida que vem com uma solução sólida, inteiramente natural, que vira vapor quando colocada no microondas por três minutos. A formula, quando vaporizada, gruda na sujeira e na comida no interior do microondas, tornando muito mais fácil de limpá-lo com a esponja. “Mesmo com 10 anos de experiência na indústria em manufatura, eu não tinha o design do produto no meu radar como uma prioridade quando resolvi fazer esta matéria,” disse David McCalib, formado em 2013 em engenharia, que recentemente começou a trabalhar como engenheiro projetista na Amazon. “Mas agora eu estou sempre pensando nisso e tenho mais ferramentas do que nunca. Foi como andar de bicicleta com rodinhas para aprender a desenvolver um produto. Agora nós temos a confiança de fazê-lo nós mesmos.” ■ »» Fonte: Students prepare for real-world product development through hands-on collaboration -Alissa Mallinson, MIT News Office.

Sozinho você compra. Em turma você economiza e compra mais. 1 2 3

Reúna a galera e junte um pedido de 12 ou mais exemplares do mesmo livro da Editora Saraiva.

Cadastre-se como aluno-organizador. Ligue para o nosso canal de vendas ou envie um e-mail para vendascuritiba@editorasaraiva.com.br

Ganhe 30% de desconto em seu pedido e leve um exemplar de cortesia.

Contato:

vendascuritiba@editorasaraiva.com.br Telefone: (41) 3332-4894

* Promoção válida para livros utilizados nos cursos de: Administração, Ciências Contábeis, Ciências Sociais, Comércio Exterior, Comunicação, Economia, Marketing/Propaganda, Matemática/Estatística, Português/Inglês, Negócios, Relações Internacionais e Turismo/Hotelaria. Válida para livros da Editora Saraiva. Promoção não cumulativa a outras ações promocionais ou condições de pagamento vigentes, válida até 30/04/2014 ou enquanto durarem nossos estoques.

www.polyteck.com.br | Revista Polyteck |5 editorasaraiva.com.br


O

Aumento na camada de gelo

do Ártico Nos últimos 30 anos, satélites vêm registrando diminuições constantes na extensão e no volume da capa de gelo que cobre o Ártico. Contudo, indo contra as estatísticas dos anos anteriores, o satélite CryoSat mediu um aumento de quase 50% no volume de gelo no Ártico em outubro de 2013.

6 | Revista Polyteck | www.polyteck.com.br

Painel Intergovernamental sobre Mudanças Climáticas (IPCC, na sigla em inglês), ocorrido em 2013, divulgou um relatório afirmando que há mais de 95% de chance de que o homem tenha causado mais de metade da elevação média de temperatura registrada entre 1951 e 2010. Uma mudança na faixa de 0,5 oC a 1,3 oC. Os pesquisadores-autores do relatório estimam que até 2100, considerando-se o pior cenário possível de emissões de gás carbônico, o gelo do Ártico pode retroceder em até 94% durante o verão no Hemisfério Norte. O nível do mar pode aumentar em até 82 cm devido ao derretimento de camadas de gelo multianuais dos polos e montanhas, aquelas que não derretem durante o verão. Acontece que, aparentemente, o ano de 2013 foi na contramão dos estudos e estatísticas sobre o aquecimento global. A extensão e o volume de gelo do Ártico são medidos pelo CryoSat, um satélite da Agência Espacial Europeia (ESA, em inglês), desde 2010. O satélite foi projetado para medir a espessura do gelo no Oceano Ártico e tem permitido aos cientistas monitorar com precisão, pela primeira vez, mudanças significativas no volume de gelo. Desde o começo da sua operação, o CryoSat tem registrado uma diminuição no volume de água congelada, preocupando cientistas, ambientalistas e governantes. Contudo, 2013 registrou um aumento significativo nos níveis de gelo quando comparados aos anos anteriores.


CryoSat

O CryoSat foi desenvolvido com o objetivo de realizar medidas compreensivas das regiões polares e ajudar a entender como as mudanças climáticas estão afetando regiões sensíveis, como o Ártico e a Antártida. Por essa razão, o satélite está em uma órbita polar altamente inclinada, alcançando latitudes de 88 o norte e sul. Assim, o satélite consegue observar e estudar as regiões polares. O principal instrumento do satélite é o radar altímetro SIRAL (Synthetic Aperture Interferometric Radar Altimeter). Um radar altímetro é uma escala instrumento que serve para medir a altura em relação ao chão. Ele é utilizado em aeronaves e satélites e pode fornecer a altitude exata da aeronave acima do solo. Isso é realizado enviando ondas de rádio em direção ao solo e, de acordo com o lapso de tempo entre os sinais enviado e refletido, é possível calcular a altura em que a aeronave ou satélite se encontra. O SIRAL foi desenvolvido especificamente para medir a variações na espessura das camadas de gelo e a altura do gelo a partir da superfície da água.

Regelo do Ártico

O volume de gelo medido em outubro de 2013 foi de cerca de 9000 km3 de gelo marítimo. Isso é um aumento considerável, considerando-se os 6000 km3 medidos em outubro de 2012. Pesquisadores afirmam que cerca de 90% desde aumento é devido

ao crescimento do gelo multianual, aquele que sobrevive por mais de um verão sem derreter. Essa camada está em média 30 cm mais espessa, um aumento de 20 % comparado às medidas de 2012. Os pesquisadores estimam que apenas 10 % desse aumento foi devido a gelo criado no ano das medições. Segundo eles, a presença de gelo multianual espesso indica uma cobertura saudável do Ártico. No entanto, por mais que esta seja uma boa notícia, não significa que houveram mudanças no quadro geral de degelo observado nas últimas décadas. O professor Andrew Shepherd, da University College de Londres, co-autor de um estudo sobre o degelo apresentado em outubro de 2013 no American Geophysical Union’s em São Francisco, Califórnia, afirma que havia cerca de 20.000 km3 de gelo marítimo no Ártico em outubro de 1980. Isso significa que as medidas de 2013 ainda estão entre as mais baixas dos últimos 30 anos. Aparentemente esse aumento nas camadas de gelo medido pelo CryoSat é uma flutuação pontual e não indica uma mudança no padrão climático. Os dados obtidos pelo satélite nos próximos meses ajudarão os pesquisadores a entender melhor este fenômeno de recongelamento e observar como o gelo multianual irá se comportar neste ano. ■

Satélites trabalham mapeando a extensão da cobertura de gelo nos polos há alguns anos. Desde 1978, a extensão média anual de gelo marinho do Ártico encolheu cerca de 2,7 % por década. O CryoSat monitora este fenômeno desde 2010, quando foi lançado. Foto: ESA

LEIA MAIS

Fonte: »» European Space Agency (ESA) http://www.esa.int/

Espessura da camada de gelo no oceânico no Ártico. Medições feitas pelo Cryosat entre 2010 (esquerda) e 2013 (direita). Foto: ESA

www.polyteck.com.br | Revista Polyteck | 7


Dupla função A expressão de determinadas proteínas pelo genoma humano é comandada pelos códons, pedaços do código genético responsáveís por especificar a produção de diferentes tipos de aminoácidos durante a síntese de proteínas. Até então, pensava-se que os éxons continham os códons responsáveis por codificar os aminoácidos e os íntrons regulavam essa codificação. No final de 2013 pesquisadores descobriram que um mesmo códon pode realizar as duas funções simultaneamente. Chamados de duons, esses pedaços do código genético têm papel importante na evolução humana e também podem ter participação fundamental na expressão de proteínas associadas à causa de muitas doenças.

A

genética tem crescido continuamente desde a descoberta da estrutura do DNA. Costuma-se dizer que o código genético é redundante, já que a maioria dos aminoácidos que nossas células produzem para construir proteínas podem ser codificados por mais de um códon. Apesar de o produto final ser o mesmo, independentemente do códon utilizado para um aminoácido específico, observa-se que certos códons são transcritos em maior escala. Isso gera uma dúvida: por que essa preferência existe? Cientistas da Universidade de Washington, em Seattle, EUA, tentam explicar esse fenômeno com uma descoberta que está sendo chamada na área de “um segundo significado” para o código genético e faz parte do projeto ENCODE. A descoberta de códons que também possuem um papel na regulação da codificação foi publicada na revista Science em dezembro de 2013. Batizados de duons (dual-use codons), eles unem as funções regulatórias e transcritórias do código genético. Papéis que sempre foram divididos entre os éxons, que contém os códons responsáveis por codificar os aminoácidos, e os íntrons, que regulam esta codificação.

Técnica

15% DO DNA POSSUI FOOTPRINTS

8 | Revista Polyteck | www.polyteck.com.br

Os pesquisadores utilizaram a técnica DNAse I footprinting com 81 tipos de céulas humanas. Essa técnica serve para detectar a interação de uma proteína com o DNA. Utiliza-se a enzima desoxirribonuclease para quebrar as moléculas de DNA que não estão interagindo com uma proteína, que age como uma proteção à clivagem. Identifica-se então quais áreas do DNA não foram clivadas (os footprints) e essas são sequenciadas e comparadas ao DNA original para que se descubra sua localização no genoma.


Códons que executam simultaneamente as funções de codificação e regulação da produção de aminoácidos tem papel importante na evolução e saúde humana. por Priscila Hirschfeld, Estudante de Biomedicina na UNIRIO.

Footprints são regiões do genoma onde proteínas podem se ligar e controlar o aumento ou diminuição da transcrição do DNA pela célula. Foram encontrados mais de 11 milhões de footprints diferentes, com tamanho entre 6 e 40 pares de bases. Também identificaram que cerca de 15% da região transcritória do nosso código genético possui footprints. Isso significa que um mesmo pedaço de código genético pode dizer à célula que tipo de proteína produzir, e também controlar quando essa proteína será produzida.

Papel no processo evolutivo e saúde

Devido ao fato dos duons serem tão abundantes, os pesquisadores decidiram testar se eles sofrem uma seleção evoutiva maior do que outros códons. Utilizando dados de genomas já descritos, eles quantificaram a idade das mutações que surgiram nos duons ou fora dos duons. Também descobriram que as mutações dentro dos duons são, em média, 10,4% mais novas do que as que estão fora deles. Isto sugere que estas mutações foram importantes para o ajuste evolutivo dos humanos, sendo selecionadas para serem mantidas. Outro fato observado foi que entre quase todos os aminoácidos que possuem mais de um códon, o códon mais utilizado para transcrevê-los era também o que possuía mais footprints. Isso significa que a preferência do genoma por um códon específico também reflete na preferência por se ter um ponto de controle da transcrição. Isso pode explicar, em parte, o porquê da preferência por um códon sobre o outro.

Esta descoberta também pode ajudar a entender melhor algumas doenças. Sabe-se que certas variações na área codificante do código genético levam a doenças devido às mudanças na codificação da proteína final. Muitas dessas variações foram identificadas por estudos genômicos amplos associativos (GWAS – Genome-Wide Associates Studies), que comparam a área transcritiva do genoma de doentes com a de pessoas saudáveis. Os pesquisadores descobriram que 13,5% das variações testadas por eles encontravam-se em duons. Isso significa que, além da variação da função codificante, também é preciso observar a variação na função regulatória desses duons. A função simultânea de regulação e transcrição é algo que nunca havia sido observado até então. Apesar de não ser um “segundo código genético“, como se está chamando na mídia, essa é uma importante descoberta sobre o genoma que pode ajudar a entender organismos complexos e melhorar a qualidade de vida. Para o avanço da pesquisa genética, que possui tantas possibilidades nas áreas médica e farmacêutica, é necessário entender o que o código genético significa, além dos genes e das proteínas que ele constrói. Essa descoberta certamente auxilia o nosso entendimento e abre novas possibilidades para melhorar o diagnóstico e o tratamento de doenças. ■

ENCODE

A Enciclopédia de Elementos do DNA (ENCODE) é um projeto desenvolvido desde 2003 pelo governo americano para, após o sucesso do sequenciamento do genoma humano, identificar os elementos funcionais dele, dando significado ao DNA. Artigo escrito com base em: »»Andrew B. Stergachis1 et. al, Science, 342, 6164, pp 1367-1372 (2013)

Priscila Hirschfeld é estudante de Biomedicina na UNIRIO, fez intercâmbio na Universidade da Pennsilvania e estagiou na Escola de Medicina de Harvard.

www.polyteck.com.br | Revista Polyteck | 9


REDES

NEURAIS

Ao análisar milhões de frames de vídeos do YouTube utilizando técnicas de aprendizado profundo, o Google Brain foi capaz de identificar, sozinho, três categorias de objetos: rostos humanos, corpos humanos e... gatos. Devido aos avanços e expectativas crescentes na área de inteligência artificial, dominar técnicas de aprendizado profundo pode ser sinônimo de fazer muito dinheiro. Entenda como a inteligência artificial evoluiu nas últimas décadas e descubra como fazer cursos de redes neurais gratuitamente com os pesquisadores mais influentes no assunto.

De diferenças no contraste

entre pixels

para a descoberta de gatos

no YouTube

10 | Revista Polyteck | www.polyteck.com.br

REDES NEURAIS SÃO SISTEMAS COMPUTACIONAIS CONSTITUÍDOS POR NEURÔNIOS, TAMBÉM CHAMADOS DE NÓS, QUE FUNCIONAM COMO UNIDADES DE PROCESSAMENTO E SÃO CONECTADOS UNS AOS OUTROS PARA FORMAR UMA REDE. ESSES SISTEMAS TÊM A CAPACIDADE DE APRENDER SOBRE O SEU AMBIENTE E COM ISSO MELHORAR O SEU DESEMPENHO AO AJUSTAR A “FORÇA” DE DETERMINADAS CONEXÕES NEURONAIS.


O

Google X é um laboratório secreto gerenciado pelo Google em Mountain View, Califórnia. Lá são desenvolvidos projetos de realidade aumentada, robótica e redes neurais, entre outros. Há três anos, pesquisadores do laboratório extraíram cerca de 10 milhões de frames de vídeos do YouTube e alimentaram o Google Brain – Uma rede de 1.000 computadores programados para absorver tantas informações quanto uma criança pequena. Depois de três dias procurando por padrões recorrentes, o Google Brain conseguiu identificar e classificar algumas categorias de objetos que se repetiam em vários frames: rostos humanos, corpos humanos e... gatos. Diferenciar pessoas de gatos ou entender uma linguagem são tarefas simples para seres humanos. Porém, computadores precisam de incríveis capacidades de processamento e de enormes quantidades de dados para resolver estes tipos de problema.

SE VOCÊ ALIMENTAR O SISTEMA COM MAIS DADOS, ELE FICA CADA VEZ MELHOR.

Inteligência artificial não é novidade

Em 1950, quando os computadores ainda eram novidade, vários pesquisadores fizeram predições de que uma inteligência artificial totalmente desenvolvida estava muito próxima. Aconteceu que os cientistas começaram a entender as particularidades do mundo real. Por exemplo: O que faz um rosto humano parecer humano ao invés de uma máscara ou um rosto de macaco? Eles então entenderam que o problema era muito mais complexo do que parecia. Tanto que centenas de pesquisadores e estudantes passaram décadas criando regras para as diferentes características que os computadores precisavam para identificar objetos. Na década de 80, surgiu um outro caminho para resolver estes problemas: a aprendizagem profunda. Sistemas que prometiam aprender as suas próprias regras. A estratégia requeria que os neurônios simulados fossem organizados em várias camadas. Num sistema como esse, a primeira camada de aprendizado vai simplesmente identificar o brilho de todos os pixels. A próxima camada pode perceber que alguns destes pixels formam bordas; a seguinte conseguiria diferenciar entre linhas verticais e horizontais. Eventualmente uma camada conseguiria reconhecer olhos, enquanto a próxima entenderia que dois olhos estão usualmente presentes num rosto humano. O problema é que os primeiros programas de aprendizagem profunda não faziam nada melhor do que um sistema simples. Além disso, eles precisavam de uma vasta série de exemplos para que pudessem aprender – algo como um bebê coletando informação sobre o mundo. Nas décadas de 80 e 90, a maioria das informações não estava digitalizada, então demorou muito para que os computadores pudessem trabalhar com dados de problemas reais. Em 2000, o aumento nas capacidades de processamento e a explosão das informações digitais levou pesquisadores a retomar o trabalho na área. Em 2009, Geoffrey Hinton e seu grupo de pesquisa na Universidade de Toronto, no Canadá, quebraram os recordes de precisão ao transformar falas em textos. Eles utilizaram uma rede neural que foi treinada por três horas com a gravação de um discurso. A conquista rapidamente chamou a atenção dos fabricantes de smartphones. O assistente de voz do iPhone, Siri, por exemplo, é baseado em aprendizado profundo.

Redes neurais de aprendizado profundo fazem uso de camadas com regras cada vez mais complexas para categorizar formas complicadas como rostos, por exemplo: Camada 1: O computador identifica diferenças nos contrastes entre pixels. Camada 2: A rede neural aprende a identificar bordas e formas simples. Camada 3: O sistema reconhece formas e objetos mais complexos. Camada 4: O computador aprende quais formas e objetos podem ser utilizados para definir um rosto humano. Imagens: Andrew Ng. Nature 505, 146–148 (2014)

www.polyteck.com.br | Revista Polyteck | 11


Descobrindo Gatos no YouTube

Andrew Ng é agora o diretor do Laboratório de Inteligência Artificial da Universidade de Stanford na Califórnia, mas foi ele quem convenceu o Google a deixá-lo usar seus dados e computadores no que agora é chamado de Google Brain. Uma rede neural com aproximadamente um milhão de neurônios simulados, e um bilhão de conexões simuladas. A habilidade do projeto em encontrar gatos foi uma incrível demonstração de aprendizado não-supervisionado - a tarefa de aprendizado mais complicada, porque os dados de input chegam sem nenhuma informação explicativa, como nomes, títulos ou categorias. O aprendizado profundo tem a propriedade de que, se você alimentar o sistema com mais dados, ele fica cada vez melhor em predizer os resultados corretamente.

Expectativas crescentes

Com vitórias em reconhecimento de imagens e fala, agora existe um interesse crescente na aplicação de aprendizado profundo para entender discursos humanos suficientemente bem, a ponto de conseguir responder perguntas e parafraseá-los. Outro interesse é na tradução de textos. Isso já é feito usando regras escritas à mão e análises estatísticas de textos conhecidos, mas espera-se que técnicas de aprendizado profundo sejam capazes de tornar essas traduções muito mais suaves e parecidas com uma tradução humana. Isso provavelmente eliminaria alguns resultados cômicos que as vezes encontramos no Google Tradutor. Estes avanços criaram um clima de expectativa em torno de inteligência artificial. Segundo o professor Andrew Ng, os algoritmos de aprendizagem profunda não são os únicos do tipo, mas são provavelmente os melhores – e certamente, os mais fáceis. É por isso que são uma grande promessa para o futuro. Para os cientistas da computação, dominar técnicas de aprendizagem profunda pode ser sinônimo de fazer muito dinheiro. Nos últimos anos, várias empresas como Google, Apple e IBM foram abocanhando startups e pesquisadores com experiência em aprendizado profundo. Os resultados para os consumidores incluem

softwares capazes de separar fotos com mais eficiência, entender comandos de voz e traduzir textos estrangeiros. Para cientistas e indústria, o aprendizado profundo pode mapear redes neurais reais do cérebro humano ou predizer funções de proteínas. Apesar dos recentes sucessos, o aprendizado profundo ainda está na sua infância e há muito a ser desenvolvido. Ou seja, há muitas oportunidades para pesquisadores, estudantes e startups que trabalham na área. ■

Um dos neurons da rede neural artificial, treinado a partir de frames não categorizados retirados de vídeos do YouTube, aprendeu a detectar gatos. A imagem ao lado mostra como o neuron “entende” um gato.

Artigo escrito com base em:

Foto: Andrew Ng (2012)

»» Mohamed, A. et al, IEEE Int. Conf. Acoustics Speech Signal Process. (2011) »»Andrew Y. Ng et al. (2012) Preprint at: http:// arxiv.org/abs/1112.6209 »» Nicola Jones, Nature 505, 146–148 (2014)

12 | Revista Polyteck | www.polyteck.com.br

LEIA MAIS

O professor Andrew Ng é um dos fundadores do Coursera, uma empresa de tecnologia educacional que trabalha em parceria com várias universidades de classe mundial para disponibilizar cursos online gratuitamente. Ele e o professor Geoffrey Hinton ministram cursos de redes neurais regularmente na plataforma. Foto: Ariel Zambelich/Wired Coursera: http://www.coursera.org/


www.polyteck.com.br | Revista Polyteck | 13


DNA

T

computing How DNA is used to solve

computational

problems

ONLY IN 1994 A DNA COMPUTER WAS ACTUALLY BUILT.

14 | Revista Polyteck | www.polyteck.com.br

he intersection of computer science and molecular biology may sound unlikely, given the huge differences between these fields of study. But recent developments had shown that this conjoint is a fertile ground for a new and exciting science: DNA computing. Therefore the development of DNA based computing systems is recent, the idea of manipulating and using nanomaterials to perform calculations is not new. In the late 50’s, the physicist Richard Feyman gave a lecture describing the possibility of sub-microscopic computers. One decade later, a DNA based computer that operates near thermal equilibrium was proposed, but only in 1994 the demonstration of such DNA computer actually occurred. The huge information storage capacity and the low energy dissipation of DNA processing led to an explosion of interest in massively parallel DNA computing. When enzymes work on multiple molecules at the same time, DNA computing becomes massively parallel and very powerful. Due to its processing capacity, it was initially proposed as a way to solve computational problems in which the computing time grow exponentially with the problem size, since it allows testing many different possibilities at once, reducing the computing time.


Two notable examples of these interdisciplinary efforts in the field are molecular computing and molecular programming. The first typically uses biological molecules to create programmable autonomous computing devices. The later uses computer-programming languages to describe, simulate, analyze and even engineer the behavior of molecular systems, and typically systems made of biological molecules.

Fundamentals

DNA is the major example of biomolecule that stores information. It can be manipulated via enzymes and nucleic acid interactions in way to retrieve information. DNA is encoded with four bases (known as nucleotides), represented by the letters A, T, C, and G, which is very similar to the way data is stored in binary systems (a string that is encoded with zeros and ones). DNA computing relies on the development of algorithms to solve problems using the DNA’s sequence of nucleotides to encode information, then breaking and making new bonds between strands in a way to reach the answer. The fundamental concept that allowed the development of DNA computing is the fact that intermolecular interactions between nucleotides are regulated by hydrogen binding forces, so that each DNA base only binds to its complimentary base and, consequently, a strand of DNA only binds to its complimentary strand. Oligonucleotides bind in an antiparallel way with respect to the chemically distinct ends 5’ and 3’ of the DNA. This hydrogen bonding, or base pairing, of one oligonucleotide to another is called hybridization. Those specific bindings between complimentary strands are the core of DNA computing. Another important development that led to DNA computing is the use of DNA strands with sticky ends. This is achieved by the use of restriction enzymes that catalyze the cutting of both strands of a molecule. Those enzymes cleaves DNA at a very specific base sequences, called recognition sites. From those basic principles, it is possible to observe that DNA contains two crucial elements to any computer:

DNA molecules have processing units in the form of enzymes and storage units encoded as DNA strings, two crucial elements to any computer. In a DNA computer, the computation is realized by a chain of reactions where, at each step, the steady state is achieved between reactants and products. Those molecules can be programmed to execute any dynamic process of chemical kinetics and can implement an algorithm to deliver calculated outputs.

DNA COMPUTING IS AN EMERGING INTERDISCIPLINARY FIELD

Example of surface-based approach to DNA computations. (1), (2) A set of single-stranded DNA molecules representing all possible solutions to a given computational problem is synthesized and immobilized on a surface. (3) Strands are tagged by hybridization to their complements, rendering them double-stranded. (4) An enzyme which destroys non-hybridized strands is added. (5) All hybridized complements are removed. Repetitive cycles of 3, 4 and 5 operations remove from the surface all strands which do not satisfy the problem. At the end of N cycles, only those strands which are solutions to the problem remain. (6) Their identities are determined by PCR followed by hybridization to an addressed array. Imagem: Qinghua Liu/Nature

www.polyteck.com.br | Revista Polyteck | 15


• A processing unit in the form of enzymes, which are capable of cutting, copying, and pasting DNA;

• A storage unit encoded in DNA strings. Reaching Consensus

An important function of molecular controllers is their ability to make decisions by comparing concentrations of input signals. A group of researchers led by Georg Seelig have engineered a decision-making controller by implementing a consensus algorithm that operates on two signals (X and Y). The algorithm allows agents to “vote” X or Y, leading to an agreement on a majority decision. The signal which is initially in the minority is completely eliminated and replaced by the signal which is initially in the majority. As far as molecular computing is concerned, they have employed the method of DNA strand displacement, in which one strand is programmed to displace another within a double-stranded DNA molecule. From molecular programming, they have used Chemical Reaction Networks, a mathematical language for describing chemical reactions occurring in well-mixed solutions. Through the use of DNA biochemistry, the researchers have combined the fields of molecular computing and molecular programming with a dash of theoretical computer science and provided a work that is the epitome of interdisciplinary IDENTIFIQUE - Revista Politeckok.pdf

1

2/18/14

12:10 PM

16 | Revista Polyteck | www.polyteck.com.br

research. This exciting field of biological engineering will certainly evolve over the years to come. The development of more algorithms and techniques for DNA computation could lead to applications such as fabrication methods based on self-organization or smart therapeutics, which could then lead to prevention and treatment of a broad range of diseases and genetic disorders. ■ References: »» Georg Seelig, et. al, Nature Nanotechnology 8, pp 755–762 (2013) »» Ehud Shapiro and Tom Ran, Nature Nanotechnology 8, pp 703–705 (2013) »»Adleman LM, Science 266, 5187, pp 1021-1024 (1994) »» Qinghua Liu et. al, Nature 403, pp 175-179 (2000)

ACESSE O ARTIGO EM PORTUGUÊS UTILIZANDO O QR CODE A Polyteck publica um artigo em inglês todas as edições para incentivar a internacionalização das universidades brasileiras.

LEIA MAIS


Sensor de partículas alfa ajuda a prevenir

acidentes

aéreos E

m países onde os invernos alcançam facilmente temperaturas negativas, a presença de gelo nas asas dos aviões é um grande problema de segurança. Um novo sistema de detecção de gelo em asas de aviões utilizando partículas alfa promete fornecer dados mais confiáveis aos pilotos, ajudando a prevenir acidentes. Condições de congelamento existem quando o ar contém gotas de água líquida super-refrigerada. Allém da temperatura do ar, otamanho médio e a proporção de água líquida na gota são parâmetros que afetam a extensão e a velocidade da formação de gelo em aviões. O processo de congelamento começa nas partes mais curvadas da asa e continua em direção à placa central. Os efeitos do congelamento são o aumento do arrasto, diminuição do empuxo e até a perda total da capacidade de voo de uma aeronave. A maioria do gelo é visível a olho nu da cabine de controle. Segundo o manual do National Oceanic and Atmospheric Administration sobre congelamento de aeronaves, cerca de 72 % da formação de gelo acontece durante os voos e é esbranquiçado, do tipo “neve”. Contudo, 21 % das vezes a água se congela em lâminas “transparentes”, o que é muito difícil de enxergar.

Funcionamento

Já existem uma série de instrumentos construídos para resolver esse problema e evitar acidentes. Na última década, muitos sensores ópticos e acústicos para detecção de gelo nas asas foram desenvolvidos. Um exemplo são espectrômetros que emitem um feixe infravermelho através de uma pequena fenda, que leva ao ambiente externo, e mede o sinal retornado por um refletor. Quando há gelo branco e opaco sobre a asa, do tipo neve, o feixe é bloqueado e então não há sinal de retorno. Já o gelo transparente faz o oposto: ele reduz a dissipação do sinal emitido e aumenta a intensidade do sinal de resposta. Assim o sensor mede a formação de gelo em ambos os casos. Estas soluções são interessantes, mas apresentam uma desvantagem: elas não fazem parte das superfícies. Por serem montadas separadamente, elas detectam a presença de gelo no sensor, e não na asa em si. Visando resolver este problema, uma equipe de pesquisadores da Universidade do Oeste da Flórida, liderada por Ezzat G. Bakhoum, desenvolveu um sistema que detecta a camada de gelo que está realmente se formando sobre a asa. Ao contrário dos detectores mais conhecidos, que são baseados em óptica, o novo detector usa partículas alfa.

Uma fonte de partículas alfa é acoplada à asa da aeronave e um detector com um transístor MOSFET (acrônimo para Metal -Oxide Semiconductor Field Effect Transistor) é colocado a alguns centímetros da fonte. À medida que as partículas alfa atingem o detector, elas depositam suas cargas positivas no gate do MOSFET (canal negativo). Com isso, o transistor entra em estado ligado. Mas basta que uma fina camada de gelo (aproximadamente 100 µm de espessura) cubra a fonte para que o feixe de partículas alfa seja interrompido. Nesse caso, as partículas alfa não alcançam o detector e o MOSFET entra em estado desligado. Um dos materiais emissores para o novo sensor pode ser o Americium 241, que já é utilizado em detectores de fumaça. Segundo Bakhoum, o novo sistema é mais confiável do que os modelos ópticos existentes, pois é uma parte integral da aeronave. Isso impede que o detector deixe de “enxergar” alguma formação de gelo. ■ Artigo escrito com base em: »» Alpha-Particle-Based Icing Detector for Aircraft, Bakhoum, E.G., Instrumentation and Measurement, IEEE Transactions on (Volume: 63, Issue: 1 ) »» IEEE Sptectrum, Douglas Cormick, 10/01/2014 »» The National Oceanic and Atmospheric Administration, NOAA

www.polyteck.com.br | Revista Polyteck | 17


Acesse o blog para ler mais artigos inspiradores A Polyteck é uma revista interdisciplinar de tecnologia e ciência distribuída gratuitamente para estudantes e professores universitários. A revista é publicada mensalmente pela Editora Polyteck e distribuída gratuitamente dentro de universidades e centros de pesquisa. É permitida a reprodução de reportagens e artigos, desde que citada a fonte. É vetada a reprodução de imagens e ilustrações, pois estas são protegidas pelas leis de direito autoral vigentes. Os pontos de vista expressos nos artigos não refletem necessariamente a posição da Editora Polyteck.

Diretor Executivo: André Sionek Diretora de Redação: Raisa Requi Jakubiak Diretor Comercial: Fábio A. S. Rahal Gerente Comercial: Valquiria A. Monteiro Imagens: Shutterstock, stock.xchng

COMO O CIÊNCIA SEM FRONTEIRAS MUDOU A MINHA VIDA

COMO O SEU COMPORTAMENTO PODE TRANSFORMAR AS UNIVERSIDADES

7 lições de vida aprendidas no Ciência sem Fronteiras e como eu estou usando isso para impactar outros estudantes.

Descubra por que as universidades estão cheias de alunos sem iniciativa e saiba como usar alguns princípios de psicologia para mudar o comportamento de estudantes e professores.

http://leiama.is/LY8zrM

http://leiama.is/1lUwoy7

Edição 04 | fevereiro de 2014

Tiragem: 10 mil exemplares. Distribuição: Universidades, faculdades e institutos de pesquisa de Curitiba. Informações sobre anúncios estão disponíveis em: www.polyteck.com.br/anuncie

Queremos levar a Polyteck para mais universidades GRÁFICA

&

EDITORA

ASSISTA O VÍDEO:

http://youtu.be/LC5bo3hOqfs Editora PolyteckE D I T O R A Rua Irene Túlio, 192, casa 4 Santa Felicidade, Curitiba - PR 82.410-440 CNPJ: 18.786.870/0001-01

GRÁFICA

&

blog www.polyteck.com.br/blog

18 | www.polyteck.com.br | facebook.com/Polyteck


ESTUDANTE! Aqui você têm 15% de desconto.

30 anos fazendo seu impresso com qualidade no tempo que você precisa. Orçamentos

Impressão Digital

comercial@tecnicopias.com.br

impressao@tecnicopias.com.br

Dúvidas, Sugestões, Elogios e Reclamações atendimento@tecnicopias.com.br

Plotagens de Imagens, Adesivos, Lonas e Engenharia plotagem@tecnicopias.com.br

1983 - 2013

Rua Nunes Machado, 304 80250‐000 • Centro Curitiba • PR • Brasil www.tecnicopias.com.br

(41)

3323 1305

Tecnicópias Impressão Digital. Seu impresso com qualidade no tempo que você precisa. Tecnicópias Impressão Digital. Seu impresso com qualidade no tempo que você precisa.

anos

TECNICÓPIAS

A Tecnicópias é uma empresa certificada FSC, que garante a origem do papel de florestas controladas.



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.