Monday, September 29, 2008

Valor Econômico: Parques tecnológicos crescem à sombra das grandes universidades

O aumento no nr. de parques tecnológicos no Brasil representa importante apoio de infra-estrutura para a captação de investimentos em tecnologia e inovação.

Visitei o TecnoPuc, em Porto Alegre, e fiquei impressionado com o profissionalismo e a excelência das instalações. É um condomínio de empresas de alta tecnologia, construído onde funcionava um antigo quartel de cavalaria. Prevêem expandir o parque para outra área, já adquirida pela PUC-RS, onde funcionava um seminário católico. Há algo de simbólico em ver exército e igreja cedendo espaço para ciência e inovação no Brasil.

Everton

 

 

País já tem 57 parques tecnológicos, 80% no sul e no sudeste

Jacílio Saraiva escreve para o “Valor Econômico”:

Entre unidades em operação, em implantação e em desenvolvimento, o Brasil tem 57 parques tecnológicos. Cerca de 80% deles estão nas regiões Sul e Sudeste, faturam R$ 1,2 bilhão por ano e abrigam 350 empresas - 90% são pequenas e médias companhias. Do total faturado, R$ 200 milhões são obtidos com a exportação de produtos.

Quem tem esses dados é José Eduardo Fiates, conselheiro da Associação Nacional de Entidades Promotoras de Empreendimentos Inovadores (Anprotec), que realizou, junto com o Sebrae, o XVIII Seminário Nacional de Parques Tecnológicos e Incubadoras de Empresas, encerrado na semana passada, em Aracaju (SE).

"Os parques são como shopping centers do conhecimento, com empresas no lugar de lojas e um ambiente favorável para fazer pesquisas e negócios", compara. Fiates é o idealizador da pesquisa Parques Tecnológicos no Brasil-Estudo, Análise e Proposições, realizada com a Agência Brasileira de Desenvolvimento Industrial-ABDI.

O levantamento fez uma estimativa dos investimentos necessários para fazer dos parques brasileiros verdadeiros oásis para o desenvolvimento de produtos inovadores. Para Fiates, o valor médio de aportes públicos para a implantação de um centro com 40 companhias é de R$ 32,5 milhões, em cinco anos. Cada unidade pode gerar 7,5 mil empregos e mais de R$ 300 milhões em receita, no mesmo período.

"Do total de parques nacionais, cerca de 20 têm potencial de copiar, em cinco anos, o mesmo estágio de excelência de unidades internacionais", diz ele. Para fazer a pesquisa, Fiates visitou centros tecnológicos modelos em Taiwan e na Finlândia e garante que a média de exportação de um único complexo taiwanese chega a US$ 16 bilhões por ano, enquanto todos os empreendimentos brasileiros exportam, juntos, US$ 200 milhões. "O Brasil precisa de uma estratégia para desenvolver melhor os parques que têm e os que ainda vão surgir," diz ele.

Esse setor não pára de crescer. Prova disso são novas unidades e ampliações de operações em São Paulo, Pará e Sergipe, que aproveitam a proximidade com universidades locais e a vocação econômica das regiões para fortalecer projetos de pesquisa.

O Parque Tecnológico de Ribeirão Preto (SP), previsto para sair do papel em 2009, quer se destacar em pesquisas na área médica e odontológica e deve receber 50 empresas. Com 1,1 milhão de metros quadrados, o empreendimento, avaliado em R$ 151 milhões, será construído ao lado do campus da Universidade de São Paulo-USP, de Ribeirão Preto, reconhecida pelos cursos na área da saúde.

"A região já abriga mais de 40 companhias de equipamentos médicos", diz Geciane Porto, diretora-presidente da Fundação Instituto Pólo Avançado da Saúde de Ribeirão Preto-Fipase, uma das gestoras do projeto.

Criado em 2003, o Sergipe Parque Tecnológico-SergipeTec, em São Cristóvão (SE), tem 141 mil metros quadrados e uma infra-estrutura que custou R$ 12 milhões. Vizinho da Universidade Federal de Sergipe-UFS, pesquisas biotecnologia, TI e energia.

No setor de biotecnologia, o foco é o agronegócio, com ênfase na fruticultura. Na área de tecnologia, os pesquisadores querem desenvolver softwares para a gestão pública. "Já os estudos em energia vão privilegiar fontes renováveis, petróleo e gás", afirma José Teófilo de Miranda, diretor-presidente do SergipeTec, que conta com 23 empresas.

O interesse do parque sergipano em energia é porque o Estado é o quarto produtor nacional de petróleo, tem o maior campo em terra e mais de 20 plataformas no seu litoral. O centro tecnológico vai ser usado como suporte ao Programa de Biodiesel de Sergipe, que pretende delimitar mais de 50 mil hectares de plantação de oleaginosas e erguer uma usina esmagadora de grãos com distribuição regional.

Quatro mil agricultores familiares estão envolvidos no tratamento de sementes de girassol, com remessas garantidas para a usina de Candeias (BA). Ao longo dos próximos três anos, o programa deve gastar R$ 13 milhões em pesquisas.

O parque sergipano também vai sediar uma biofábrica, a primeira do Estado, numa área de 3,6 mil metros quadrados e R$ 2,1 milhões em investimentos. A unidade, prevista para funcionar a partir do final deste ano, promete entregar, em um ano, 250 mil mudas de abacaxi e banana mais resistentes às pragas agrícolas. Uma outra fábrica vai criar inimigos naturais para o combate de pestes na citricultura e nas plantações de cana-de-açúcar.

Há duas semanas, na região metropolitana de Belém (PA), ao lado do campus da Universidade Federal do Pará-Ufpa, foi lançada a pedra inaugural do Parque de Ciência e Tecnologia de Guamá, com 72 hectares de área. O centro de pesquisa deve estar pronto em 2010 e aposta em estudos de TI, energia, tecnologia do alumínio e biotecnologia - de olho na biodiversidade amazônica.

A Vale e a Eletronorte, além do Instituto Nacional de Pesquisas Espaciais-Inpe, já garantiram lotes no parque. O investimento em infra-estrutura chega a R$ 46 milhões, com recursos da Ufpa, governo do Pará e BNDES.

"A expectativa é receber até 200 empresas e 20% delas já estarão aqui no primeiro ano de funcionamento", promete Elane Ribeiro, coordenadora de incubadoras de empreendimentos e parques tecnológicos do governo paraense. O centro, o primeiro do gênero na região Norte, também vai ter oito laboratórios de desenvolvimento dirigidos por professores de universidades federais da região - mas não será o único. Marabá e Santarém devem ganhar seus próprios centros de pesquisa nos próximos dois anos.

Experiências no exterior funcionam como inspiração

Experiências bem-sucedidas no exterior podem inspirar os parques tecnológicos brasileiros a criar novas estratégias de gestão e geração de conhecimento. Segundo pesquisa realizada pela Associação Internacional de Parques Tecnológicos-Iasp com 276 complexos, 67,8% mantêm algum tipo de rede para a transferência de tecnologias. Atualmente, existem 1,2 mil centros tecnológicos no mundo.

"Do total pesquisado, quase 90% afirma que as empresas abrigadas nos parques também participam de algum tipo de rede de conhecimento", afirma Paulo Miranda, diretor de projetos da Iasp. A entidade, sediada em Málaga, Espanha, reúne mais de 300 parques de 81 países.

No Brasil, um dos principais desafios é vencer a dependência de recursos públicos. "Temos que sintonizar as linhas de pesquisa com prioridades regionais, nacionais e internacionais e contar com aportes regulares", analisa José Eduardo Fiates, conselheiro da Associação Nacional de Entidades Promotoras de Empreendimentos Inovadores-Anprotec.

A França dividiu o país conforme regiões de desenvolvimento e pólos de inovação já existentes para facilitar o ingresso de empresas e investidores locais e estrangeiros. Foram eleitas seis áreas principais e 20 zonas com potencial de investimento. "Isso ajuda os empresários a saber onde montar um negócio com chances de crescimento e retorno financeiro", diz Fiates.

No Reino Unido, a National Industrial Symbiosis Programme-Nisp (Programa Nacional de Simbiose Industrial) facilita a troca de experiências e negócios entre empresas de diversos setores e tamanhos - sem cobrar nada. "80% dos participantes da rede são companhias de pequeno porte", diz Paul Knuckle, gerente de desenvolvimento comercial da entidade de dez mil membros, criada em 2005, e que mantém corporações como Shell e NEC como consultores.

Segundo o executivo, ao entrar na rede, a empresa informa o que oferece e o que gostaria de obter e o Nisp realiza o intercâmbio entre as companhias. "A simbiose industrial entre as organizações sempre alavancou a inovação tecnológica", garante Knuckle, que constatou que 75% das parcerias realizadas geraram algum serviço ou produto inovador.

Financiado pelo governo inglês e por agências de desenvolvimento, o programa conseguiu espalhar 12 centros regionais no país. Entre 2005 e 2008, ações da rede conseguiram aumento de R$ 393 milhões nas vendas das empresas e ainda geraram mil novos postos de trabalho.

Até o final do ano, o Nisp desembarca no Brasil: vai ensinar sua metodologia de permutas empresariais para empresas de Minas Gerais. A criação da rede deve durar oito meses. A África do Sul e a Índia também estão na mira do programa, que já está presente na China e México. No Brasil, a Fundação Parque Tecnológico da Paraíba-PaqTcPB, em Campina Grande, a 120 km de João Pessoa, também investe na troca de experiências e de conhecimentos entre os negócios incubados no complexo.

Considerado o mais antigo parque do país, inaugurado em 1984, já colocou no mercado mais de 60 novas companhias. Recentemente, a área de cinco hectares ganhou mais três hectares - e 18 galpões industriais construídos nos anos 1920 serão reformados para sediar cerca de 20 empresas.

"Companhias como a Nokia, Accenture e a CPM Braxis já reservaram espaço na área, que vai receber R$ 15 milhões de investimentos e abrir 450 postos de trabalho nos primeiros 90 dias de ocupação", afirma Francilene Garcia, diretora do PaqTcPB. "O próximo passo é trazer para os galpões fundos de investimentos e diminuir a distância entre empresários e investidores".
(Valor Econômico, 29/9)

Monday, July 21, 2008

Brazil: The natural knowledge-economy

http://www.demos.co.uk/publications/brazil

Authors:

Kirsten Bound,

Publication Type:

Pamphlet

Publication Date:

8th July 2008

ISBN:

9781906693008

Cost:

£10.00

The landscape for innovation in Brazil is changing fast. Research budgets are rising. Brazilian scientists and innovators are at the forefront of developments from biofuels to genomics and software. And Brazil is now the fifteenth largest producer of scientific publications, up eight places in under a decade.

This report argues that Brazil is a ‘natural knowledge-economy’ where the intertwining of knowledge, skills and innovation with environmental and other natural assets holds the key to competitive advantage.

But in Europe, Brazil’s innovation capabilities are even less well understood than those of its ‘BRIC’ counterparts, China and India. This report assesses the prospects for science and technology-based innovation in Brazil over the next ten years. And it suggests how the UK and Europe can scale up collaboration with its new centres of excellence.

This report forms part of The Atlas of Ideas, a research programme on the new geography of science and innovation (www.atlasofideas.org). The project was conducted in partnership with the Centro de Gestão e Estudos Estratégicos (CGEE) in Brazil, and was generously funded by a consortium of partners listed on the inside cover.

 

Jornal da Ciência: O lado B do etanol

Químico chama atenção para custo social e ambiental da produção de biocombustíveis

É preciso reconsiderar o deslumbramento da opinião pública com as vantagens ambientais do etanol. Quem alerta é o químico Wilson de Figueiredo Jardim, pesquisador da Universidade Estadual de Campinas (Unicamp). Em conferência na 60ª Reunião Anual da SBPC, ele chamou a atenção para aspectos que nem sempre são levados em conta na avaliação dos biocombustíveis e manifestou ceticismo quanto à possibilidade de alcançarmos um desenvolvimento sustentável se mantivermos o modelo econômico atual.

“Não há sustentabilidade possível dentro desse modelo suicida baseado no uso perdulário dos recursos naturais de que dispomos”, dispara Jardim. O químico discutiu em detalhes o caso dos biocombustíveis e em especial o do etanol, freqüentemente apresentado como uma alternativa limpa aos combustíveis fósseis.

De acordo com ele, as vantagens ambientais geralmente atribuídas a esse biocombustível levam em conta apenas a captura de carbono da atmosfera pela cana-de-açúcar via fotossíntese. Para fechar essa equação, defende o químico, é preciso considerar os custos ambientais e sociais associados a outras etapas do ciclo de produção do álcool, no campo, na destilaria e no entorno da plantação.

Entre os fatores que deveriam ser levados em conta, Jardim cita os gases de efeito-estufa gerados pelo uso de adubos no cultivo da cana e pelo transporte dos insumos e trabalhadores, os prejuízos para a atmosfera e para a saúde pública motivados pela queima da palha da cana e o grande volume de água empregado na produção.

Entre os inconvenientes da produção do etanol, Jardim destacou o grande volume de vinhoto (ou vinhaça) gerado no processo de destilação da garapa – da ordem de dez litros para cada litro de etanol produzido. Esse líquido tem grande demanda bioquímica de oxigênio e é às vezes descartado em rios. “O vinhoto produzido em 2006 – 180 bilhões de litros – equivale a todo o esgoto bruto produzido no Brasil naquele ano em termos de demanda por oxigênio”, compara.

Jardim enfatizou ainda o custo social da produção do etanol. Ele lembra que a rentabilidade do cultivo da cana e da produção melhorou muito nos últimos trinta anos, mas o pagamento dos trabalhadores não acompanhou essa melhoria. “O rendimento dos trabalhadores teve que subir pra compensar esse déficit”, explica. “A colheita de 1.000 kg de cana requer 4 mil golpes de facão e 3 mil flexões de perna. A expectativa de vida dos bóias-frias é hoje menor que a de um escravo.”

Por uma discussão mais madura

“Não sou contrário à adoção do etanol, que representa sem sombra de dúvidas uma alternativa viável aos combustíveis fósseis”, ressalta Jardim. “Defendo apenas que discutamos sua produção de forma mais madura e que consertemos as mazelas associadas à produção desse combustível para que ele seja realmente limpo.”

Jardim citou uma série de medidas que permitiriam reverter o quadro traçado por ele. O aproveitamento energético do vinhoto e o desenvolvimento da tecnologia de produção de etanol a partir da celulose, por exemplo, permitiriam minimizar o custo ambiental e social dos biocombustíveis. “Mas, acima de tudo, é preciso repensar nossa lógica de consumo”, avalia.
(Bernardo Esteves)

Friday, July 18, 2008

Alimentos e etanol podem tornar Brasil um dos países mais desenvolvidos do mundo

Para o reitor da Unicamp, José Tadeu Jorge o Brasil é o único país que pode conciliar a produção de alimentos e a de biocombustíveis

Daniela Amorim de Campinas para o "JC e-mail" (18/7/2008):

O Brasil se tornará um dos países mais desenvolvidos do mundo, se conciliar a produção de alimentos com a produção de biocombustível. A previsão é do reitor da Unicamp, o engenheiro de alimentos José Tadeu Jorge, que ministrou um simpósio nesta quinta-feira, durante a 60ª Reunião Anual da SBPC.

"Na verdade são duas oportunidades internacionais que se oferecem ao país. Na minha opinião, a oportunidade como exportador de alimentos é ainda maior do que a de produtor de etanol. Mas não precisamos escolher. Podemos fazer as duas coisas. O Brasil é o único país que pode conciliar essas duas coisas: a produção de alimentos e a de biocombustíveis", afirmou José Tadeu Jorge.

Mas o reitor ressaltou a importância de estabelecer uma política agrícola baseada nos fundamentos da agropecuária, para que o cultivo de alimentos não dê lugar ao cultivo de cana-de-açúcar, matéria-prima para a produção de etanol.

"O Brasil é o maior exportador de laranjas do mundo. Mas cinco boas safras de laranja na Flórida podem derrubar os preços. Corremos o risco de produtores de laranjas optarem por não encarar a briga do mercado e substituírem as plantações de laranja por cana. É financeiramente mais atraente", alertou o engenheiro. "Por isso o governo não pode deixar correr solto. É preciso planejamento, uma política consistente para aproveitar as oportunidades que se apresentam".

Entre as políticas sugeridas pelo especialista está o incentivo ao plantio de gêneros de interesse do país, como o trigo, o zoneamento de culturas e a criação de infra-estrutura, como estradas, assistência técnica e diminuição de impostos. A preservação ambiental também tem que estar na agenda da agricultura, uma vez que as florestas regulam o clima e garantem água às plantações.

"Um componente fundamental de qualquer política agrícola é a conservação ambiental. A água é imprescindível para a agricultura", ressaltou o reitor.

José Tadeu Jorge rebateu as críticas feitas por ativistas e organismos internacionais de que o Brasil estaria causando a alta de preços dos alimentos graças à sua política de incentivo à produção do etanol.

"Uma tabela da FAO (Organização das Nações Unidas para Agricultura e Alimentação) com dados de 2000 a 2008 mostra que o preço dos alimentos permaneceu estável entre 2000 e 2002. O preço começa a aumentar em 2004, coincidindo com o anúncio da intenção de investir em biocombustíveis, e, à medida que os anos avançam, percebe-se uma intensificação no ajuste dos preços, principalmente nos últimos dois anos. Essa intensificação de fato coincide com o aumento da produção de álcool no Brasil e nos Estados Unidos. Mas cabe analisar com cuidado as relações de causa e efeito", explicou.

A soja registrou um dos maiores aumentos de preço. Em 2000, a saca do produto custava US$ 11,4, enquanto hoje está US$ 28,7.

"Isso nos levaria a concluir que o Brasil está deixando de plantar soja para produzir etanol, certo?", questionou.

O trigo, o arroz e o milho também registraram aumento de acordo com a tabela da FAO. Mas o pesquisador salienta que não são apenas os alimentos que estão ficando mais caros.

"O barril de petróleo saiu de US$ 28, em 2000, para US$ 121 em 2008. A tonelada do cobre custava US$ 1.813 e, em 2008, já era vendida a US$ 8.018. Isso significa que estão diminuindo a produção do cobre ou aumentando a procura? O alumínio passou de US$ 1.548 a tonelada, em 2000, para US$ 2.850 a tonelada, em 2008. Ninguém substitui a produção de alumínio para produzir etanol", ponderou.

"Ganha consistência a argumentação de que o aumento de preços dos alimentos é uma questão econômica global, e não um fator localizado".

O engenheiro de alimentos afirma que o comportamento de preços, nesse caso, é uma questão meramente econômica. Ele diz que as pessoas passaram a ter mais dinheiro, maior poder de compra, aumentando a demanda e, conseqüentemente, provocando a elevação dos preços.

"Quando as pessoas ganham dinheiro, a primeira coisa que compram é alimentos. Saciada a necessidade de alimentos, começam a comprar outras coisas com o que sobra. A demanda que cresce mais rápido é a demanda por comida. E a maior demanda gera aumento dos preços", explicou.

Para comprovar a tese de que o Brasil não deixou de plantar alimentos para cultivar cana-de-açúcar, José Tadeu Jorge apresentou números que mostram o aumento da área cultivada e da produção de gêneros alimentícios, inclusive a soja.

"A produção brasileira de soja é crescente. Portanto, não existe a substituição da produção de soja por cana. Pelo contrário, o Brasil aumentou muito a oferta de soja. Em 86/87, o país produzia 17 mil toneladas de soja, e, em 2005/2006, já produzia mais de 55 mil toneladas", contou.

Segundo números apresentados pelo pesquisador, a taxa de crescimento da produção de alimentos do Brasil é muito maior do que a taxa de crescimento da produção mundial. De 96 a 2006, o crescimento da produção brasileira foi de 9,4%. No mesmo período, o crescimento da produção alimentícia na União Européia e nos Estados Unidos – os líderes em volume de exportação – foi de 3,4% e 1,4%, respectivamente. A produção da China cresceu 8,4%, também atrás da brasileira.

"O Brasil tem cerca de 851 milhões de hectares. Destes, 470 milhões de hectares não podem ser utilizados, porque são a nossa herança e riqueza, como a Amazônia, centros urbanos, rios, reservas, unidades de preservação. Outros 220 milhões de hectares são destinados à criação animal e 70 milhões estão ocupados por plantações. Ainda assim, temos 90 milhões de hectares de área agricultável. Ou seja, nós temos uma área de potencial agrícola ainda maior do que a área que já usamos hoje. Nenhum outro país do mundo tem uma condição como esta. O Brasil precisa é de uma política agrícola, coisa que nunca teve", concluiu.

Wednesday, July 16, 2008

Estadão: Empresários advertem para falta de cientistas nos EUA

Eles alertaram que falta de trabalhadores especializados e professores ameaça competitividade do País

Uma tentativa de grupos empresariais norte-americanos de dobrar o número de bacharéis em ciência, matemática e engenharia até 2015 está muito atrás de sua meta, disse um relatório.

Em 2005, 15 importantes empresas alertaram que a falta de trabalhadores especializados e professores era uma ameaça para a competitividade dos Estados Unidos, e disseram que o país precisava de 400 mil novos graduados no que se chama de "Stem" (Ciência, tecnologia, engenharia e matemática, na sigla em inglês) até 2015.

Em uma atualização publicada nesta terça-feira (15/7), o grupo reportou que o número de diplomas nessas áreas aumentou um pouco no início da década, citando estatísticas dos anos a partir de 2001 que se tornaram disponíveis desde o primeiro relatório. Mas o número de diplomas parou em cerca de 225 mil por ano.

A coalizão, representando grupos como a Câmara de Comércio dos EUA e a Associação Industrial de Defesa Nacional, disse que houve apoio bipartidário substancial em Washington, incluindo a aprovação de uma lei, America Competes Act, que promove a matemática e a ciência.

No entanto, Susan Traiman, diretora de educação e política de força de trabalho para a Business Roundtable, uma organização de executivos de corporações, disse que não houve investimentos suficientes para dar apoio aos programas. Outros países, ela disse, estão fazendo muito mais para direcionar investimentos para o treinamento científico.

"A preocupação dos executivos é que se esperarmos para um evento como o Sputnik, vai ser bastante difícil de conseguir movimentar os progressos que precisaríamos", disse Susan, referindo se ao lançamento do primeiro satélite artificial pelos russos em 1957, que levou os Estados Unidos a um enorme comprometimento com o avanço da ciência.

"Ainda leva um mínimo de 17 anos para produzir um engenheiro se você considerar os 12 anos de escola mais os 4 anos de faculdade", disse.

Alguns críticos manifestaram preocupações com um excesso de graduações em ciência. Eles argumentam que se realmente houvesse uma demanda por cientistas, mais estudantes naturalmente iriam para essas áreas, sem incentivos enormes patrocinados por aqueles que pagam impostos.

Mas William Green, presidente da Accenture, uma gigante da consultoria, chamou essas críticas de "sem sentido", acrescentando que todo o país se beneficia com empresas competitivas.

Green disse que a Accenture vai contratar cerca de 58 mil funcionários no mundo todo esse ano, e vai gastar US$ 780 milhões em treinamento.

O relatório feito pelo grupo Tapping America”s Potential, que já representa 16 grupos empresariais, também argumenta que a falha do Congresso em aprovar uma nova regulamentação de imigração vai dificultar a competitividade norte-americana, não permitindo que os EUA conservem os trabalhadores estrangeiros altamente qualificados que estudam nas universidades do país.
(O Estado de SP, 15/7)

Carlos Nobre: O Brasil tem todas as condições para se tornar o primeiro país tropical desenvolvido

Se decidir seguir esse caminho, vai precisar inventar um novo modelo de desenvolvimento, que reconheça o uso racional dos recursos naturais e da biodiversidade, alerta o engenheiro do Inpe

Carla Almeida escreve de Campinas para o “JC e-mail” (em 16/jul/2008):

As mudanças climáticas são reais, inequívocas e estão acelerando. Em conferência realizada nesta terça-feira, na 60ª Reunião Anual da SBPC, em Campinas, Carlos Nobre, uma das grandes presenças no debate mundial sobre as mudanças climáticas, apresentou uma série de razões para o Brasil se preocupar com isto.

A principal delas está relacionada à biodiversidade brasileira, que, segundo Nobre, está entre as principais vítimas das alterações no clima terrestre. Segundo alerta feito pelo Painel Intergovernamental sobre Mudanças Climáticas (IPCC), mesmo considerando o melhor cenário de mudanças, com um aumento de temperatura entre 1,5 e 2º C, até 15% das espécies irão desaparecer.

Além disso, Nobre mencionou como prováveis efeitos das mudanças climáticas sobre o Brasil, a maior incidência de doenças tropicais, como a dengue, e a escassez de água no Nordeste, com prejuízos significativos para a agricultura da região e do país.

“O Brasil deve se preocupar sim, e nós temos uma responsabilidade muito grande.”

Assumir essa responsabilidade significa necessariamente promover o uso mais racional dos recursos naturais. “Não há outra alternativa”, disse Nobre, lembrando que o Brasil já tem metade de sua base energética movida a energias renováveis e que ainda não utiliza o potencial de sua biodiversidade.

“O Brasil tem todas as condições para se tornar o primeiro país tropical desenvolvido”, afirmou o pesquisador. Se decidir seguir esse caminho, o país vai precisar inventar um novo modelo de desenvolvimento. “Não existem modelos para o Brasil copiar. Por isso temos que inventar”.

Na contramão

Se por um lado o Brasil tem condições para se tornar uma potência ambiental, por outro, suas emissões vão na contramão de um modelo de desenvolvimento, quem dirá sustentável.

Segundo dados apresentados por Carlos Nobre, o uso da terra, lê-se desmatamento, responde por mais da metade das emissões brasileiras. Já a geração de energia, que em geral está atrelada ao desenvolvimento econômico, não responde nem por um quinto das emissões do país.

Ou seja, as emissões brasileiras não estão alimentando o crescimento econômico do país e nem aumentando a qualidade de vida de sua população, concluiu o pesquisador. “Esta talvez seja a grande tragédia brasileira na questão das emissões. É algo que precisa ser urgentemente corrigido.”

Nobre ressaltou a importância de essa discussão estar sendo feita no seio da comunidade científica, na Reunião da SBPC. Para ele, o maior desafio é “conciliar nossa necessidade de desenvolvimento com a sustentabilidade do planeta Terra.”

Inmetro e Nist (EUA) deslancham processo de medição para transformar biocombustíveis em commodities

Na 60ª Reunião Anual da SBPC é anunciada formação de grupo de trabalho em Avaliação de Ciclo da Vida para etanol e biodiesel

Flamínio Araripe escreve de Campinas para o "JC e-mail":

O Instituto Nacional de Metrologia, Normalização e Qualidade Industrial (Inmetro) e o seu similar nos Estados Unidos, o National Institute of Standards and Technology (Nist), estão fazendo o levantamento das características dos biocombustíveis dos dois países que possibilitem intercomparações e a fixação de padrão de qualidade.

O processo tem como objetivo facilitar a transição destes combustíveis para o estágio de commodities globais, uma iniciativa que abrange bioetanol e biocombustíveis de diversas origens.

O Inmetro já enviou ao Nist 10 mil amostras de bioetanol e biocombustíveis. No fluxo inverso, vieram amostras dos EUA para serem analisadas pela área científica e industrial do Inmetro. O resultado concreto do acordo de cooperação entre Inmetro e Nist será o estabelecimento de protocolo entre os dois governos que estabeleça padrões de biodiesel e etanol que sejam compatíveis internacionalmente.

O relato da cooperação bilateral foi feito por Carlos Aragão de Carvalho (UFRJ) nesta terça-feira na 60ª Reunião Anual da SBPC, na mesa-redonda "O papel da metrologia moderna no desenvolvimento científico e tecnológico do país". Em atuação desde 1905, o Nist é um dos laboratórios mais conceituados do mundo na área de metrologia química. A mesa-redonda teve a participação de Celso Kloss, da Rede Metrológica do Paraná e de Pedro Rosário, da Sociedade Brasileira de Metrologia (SBM).

Aragão destaca a experiência do Inmetro em programas de certificação envolvendo aspectos de sustentabilidade social e ambiental com o exemplo do Programa Brasileiro de Certificação Florestal (Cerflor), no qual toda madeira exportada pelo país é certificada. Para atender a exigências de sustentabilidade sócio-ambiental de compradores europeus, o Inmetro certifica 50% da madeira exportada no âmbito da iniciativa, iniciada em 2002, o que representa mais de US$ 8 bilhões por ano.

De acordo com Aragão, o acordo Inmetro-Nist nos biocombustíveis, terá o aval da Comunidade Européia com a assinatura do compromisso de que vão adotá-la no âmbito da Europa. Segundo ele, a medida preservará o país de cobranças como a recente feita pelo presidente da União Européia, Durão Barroso, no sentido de que o Brasil precisa comprovar emissões de CO2 e certificar a produção de biocombustíveis.

Além do estabelecimento de um padrão para o etanol e biocombustíveis que seja alvo de intercomparações, conforme Aragão, outras medidas estão sendo adotadas pelo Inmetro. Uma delas foi a constituição de um grupo liderado pelo presidente do Inmetro, João Jornada, que já iniciou busca de colaboração na academia brasileira, para elaborar a metodologia Avaliação do Ciclo de Vida (ACV) ou Life Cycle Assessment (LCA), adotada por outros países para mensurar impactos de sistemas de produção de biocombustíveis, desde o plantio ao consumo, o refino, manufatura, transporte, uso direto e dejetos.

Aragão observa que a técnica ACV é aplicada ao Brasil por outros países, em estudos que aparecem como pano de fundo para críticas como a estampada na capa da edição de abril da revista Time, com o título "O mito da energia limpa". A reportagem bate no programa brasileiro de biocombustíveis, que "podem não ser uma promessa mas, ao contrário, um desastre. A solução falsa, o etanol, tido como economicamente amigável, é um desastre". A abordagem da revista, diz Aragão, não tem nenhuma base.

Um exemplo de uso da ACV citado por Aragão é um estudo do governo alemão-MOA com dados superdimensionados sobre mudança da terra para a produção de biocombustíveis, dando como resultado um balanço ambientalmente negativo para o Brasil. O enfoque, para ele, não resiste a uma avaliação metrológica mais simples, pela incerteza de dados ao sabor de interesses políticos e sociais para que venha a ser aceita internacionalmente.

A ACV tem sido contestada por um grupo de cientistas norte-americanos liderado por Mary Dnichols, chairman da California Air Resources, que aponta a ausência de cunho científico da técnica usada para medir alguns impactos. "É biomistificação, uma biofalácia", afirma Aragão após citar o estudo da pesquisadora. Por isso, segundo ele, o Brasil irá fazer um estudo de forma adequada para ter uma avaliação crítica usando o paradigma ISO 14.040.

Na área de biocombustíveis – acrescenta Aragão - o Inmetro está desenvolvendo estudos sobre seus aspectos científicos e técnicos, incluindo a produção de padrões metrológicos confiáveis e reconhecidos internacionalmente, em projeto em parceria com o Nist. "Já foram produzidos vários materiais de referência, bem como intercomparações laboratoriais", informa.

Segundo ele, em relação aos biocombustíveis, a legislação dos países desenvolvidos procura introduzir aspectos ambientais, tais como uso do solo, contaminação de lençóis de água, uso de pesticidas e outros, através da técnica denominada ACV. Conforme Aragão, "ACV é uma técnica relativamente recente que busca calcular todos os impactos ambientais associados a um dado produto.

"A análise de ACV é um desafio, pois além de exigir uma enorme quantidade de informações busca comparar quantidades diferentes de uma maneira que requer muita explicação e interpretação", observa Aragão. Em relatório técnico apresentado sobre o assunto, o grupo do Inmetro concluiu que "o problema fundamental da técnica ACV, quando usada para incluir alguns impactos, a exemplo do uso indireto da terra, é que essa abordagem leva a resultados simplistas e pouco confiáveis, obtidos a partir de uma escolha extremamente subjetiva dos impactos e dos valores atribuídos a cada um deles".

Até o presente momento, têm sidos discutidos, principalmente na Europa, vários esquemas de Avaliação da Conformidade, especialmente esquemas de Certificação, voltados aos aspectos sócio-ambientais dos biocombustíveis. No entanto, nenhum deles foi ainda efetivamente implementado, conta Aragão.

A posição tem como principal razão a complexidade do assunto e da dificuldade em detalhar objetivamente o conjunto de requisitos específicos que traduzam os critérios de sustentabilidade sócio-ambiental de uma forma clara, objetiva, representativa e com razoável consenso, informa Aragão.

Segundo ele, este consenso não chegou aos mais importantes grupos de interessados - fornecedores, clientes e governos, além de grupos de pressão atuantes nesse terreno -, notadamente os ambientalistas e os produtores locais.

Celso Kloss define metrologia como a ciência (pesquisa, desenvolvimento, guarda, manutenção e disseminação de padrões) e a tecnologia (aplicações na indústria, comércio e serviços) das medições.

"No estágio de globalização atual, segundo ele, barreiras técnicas são impostas às exportações. As barreiras comerciais são derivadas da utilização de normas ou regulamentos técnicos não transparentes ou que não se baseiam em normas internacionalmente aceitas ou, ainda, decorrentes da adoção de procedimentos de avaliação da conformidade não transparentes e/ou demasiadamente dispendiosos, bem como de inspeções excessivamente rigorosas", disse ele.

Tuesday, June 17, 2008

Fazendo um quatrilhão de cálculos por segundo

Ethevaldo Siqueira

Até há uma semana, a velocidade dos supercomputadores era medida em teraflop, unidade equivalente a um trilhão de operações matemáticas de ponto flutuante por segundo (em inglês, Floating Point Operations ou Flop). A partir de agora, essa velocidade atinge o patamar do petaflop (um quatrilhão de operações de pontos flutuantes por segundo), com o recorde alcançado pelo supercomputador Roadrunner, de 1,02 petaflop - anunciado pela IBM na segunda-feira passada.

Instalado em Los Alamos, no Novo México, o Roadrunner conquista, assim, a posição de mais rápido supercomputador do mundo, superando o ex-campeão Blue-Gene/L, também da IBM, a serviço do Laboratório Lawrence Livermoore, na Califórnia, que passa agora para o segundo lugar.

ESTOQUE NUCLEAR

Para se ter uma idéia do que significa 1,02 petaflop como capacidade de processamento, Thomas D'Agostino, diretor da Administração da Segurança Nuclear Americana, fez aos jornalistas a seguinte comparação: "Se todos os 6,5 bilhões de habitantes da Terra usassem calculadoras durante 24 horas por dia, 7 dias por semana, seriam necessários 46 anos para fazerem os cálculos que Roadrunner faz em apenas um dia".

A tarefa principal desse supercomputador em Los Alamos é monitorar o estoque de ogivas nucleares norte-americanas, bem como simular explosões atômicas, para informar o grau de eficácia dessas armas com o envelhecimento. Mas o Roadrunner pode, é claro, prestar grandes serviços à ciência em geral e à meteorologia em especial, como no estudo das mudanças climáticas. Em sua arquitetura, utiliza 13 mil microprocessadores Power-XCell chips, desenvolvidos originalmente pela IBM para o Playstation 3, da Sony, além de 7 mil processadores AMD Opteron Dual Core. Seu sistema operacional é o Red Hat Enterprise Linux.

O Roadrunner custou US$ 133 milhões. Com todos os seus bastidores e periféricos, o supercomputador pesa mais de 220 toneladas, ocupa uma área de quase 600 metros quadrados, com conexões de quase 100 quilômetros de fibras ópticas.

NA TOCA DOS LEÕES

A quebra da barreira do petaflop era esperada há alguns meses. Para compreender melhor esse avanço, obtive permissão para uma visita exclusiva ao Laboratório de Almadén, da IBM, nas proximidades de San José, na Califórnia, com o objetivo de ouvir cientistas que trabalham no desenvolvimento de supercomputadores, como o Blue Gene e o próprio Roadrunner. 

No alto de uma colina, entre belas árvores e ao som do canto de pássaros, o Laboratório de Almadén tem toda a tranqüilidade do mundo exigida pelos pesquisadores. Ali trabalha também, esporadicamente, o brasileiro Jean Paul Jacob, hoje consultor e cientista emérito da IBM, que utiliza os recursos de pesquisa desse laboratório. 

Em Almadén, conversei durante quase um dia inteiro com cientistas como Jean Luca Bono, Jean Pieter, o próprio Jean Paul Jacob e outros. Num centro que tem a mística de fronteira mundial da tecnologia da informação, o visitante se sente fascinado pelo desenvolvimento da pesquisa baseada em supercomputadores.

FERRAMENTA DE PESQUISA

Para Jean Pieter, a supercomputação é a mais poderosa e avançada ferramenta de pesquisa que qualquer país pode utilizar, não apenas para fins militares, mas, principalmente, científicos e tecnológicos. A simulação de fenômenos como a poluição, o aquecimento global, a inflação, o crescimento populacional e as mudanças climáticas oferece grandes perspectivas de solução para esses problemas.

Por isso, a maioria dos países desenvolvidos vê a tecnologia de supercomputação como um símbolo de competitividade econômica nacional. Nas últimas décadas, a pesquisa na área dos supercomputadores assemelha-se a uma corrida mundial, uma disputa acirrada entre Estados Unidos, China, Japão, França, Alemanha e Reino Unido, entre outros países, rumo à conquista do petaflop. Quebrar a barreira do quatrilhão de cálculos por segundo era, até há poucos dias, um sonho longamente acalentado por organizações científicas em todo o mundo. 

OS DEZ MAIS

É interessante acompanhar essa corrida mundial do desenvolvimento dos supercomputadores. O site www.top500.org mostra um dos cenários mais completos desse setor, divulgando o resultado dos testes que medem a velocidade de processamento dos 500 maiores computadores do mundo.

Estados Unidos, Japão, Alemanha, Reino Unido e França são os países que mais investem nessa área de desenvolvimento. Até 2007, o Japão e a Alemanha tinham supercomputadores classificados entres os 10 maiores do mundo. Neste ano, o cenário está inteiramente mudado, com a liderança absoluta dos Estados Unidos.

Antes do anúncio do recorde mundial do Roadrunner pela IBM, a lista dos 10 maiores supercomputadores do mundo era a seguinte, segundo o site www.top500.org: 1) IBM-BlueGene/L; 2) IBM-Blue Gene/P; 3) SGI-Altix ICE 8200; 4) Hewlett-Packard, Cluster Platform Infiniband; 5) Hewlett-Packard Cluster Platform 3000; 6) Cray Inc. Red Storm - 7) Cray Inc. Jaguar; 8) IBM-Blue Gene Solution; 9) Cray Inc. Franklin; 10) IBM-New York Blue, Blue Gene Solution.

 

Friday, June 13, 2008

Jornal da Ciência: Brasil favorece modelo de inovação aberta

Assunto será discutido na segunda-feira (16/6), em SP, durante o Open Innovation Seminar 2008, primeiro evento realizado no país totalmente dedicado à inovação aberta

O modelo de inovação aberta – aquela feita em parceria entre empresas ou entre empresas e instituições de pesquisa – encontrará terreno fértil no Brasil: a legislação é favorável, existem incentivos fiscais, as universidades são de boa qualidade e já há empresas que partilham seus projetos de inovação com parceiros externos, como a Natura, a Embraer e o Laboratório Cristália.

Este cenário será amplamente demonstrado no Open Innovation Seminar 2008, o primeiro evento realizado no País totalmente dedicado à inovação aberta. Ele ocorrerá na próxima segunda-feira, 16 de junho, em São Paulo, e terá a participação de Henry Chesbrough, professor da Universidade da Califórnia que cunhou a expressão “open innovation” e definiu seus conceitos – hoje empregados por empresas como HP, IBM e Procter & Gamble.

Após a palestra de Chesbrough haverá três mesas redondas, com a participação de empresários, acadêmicos, dirigentes de agências governamentais e gestores de inovação brasileiros.

Um deles será Roberto Lotufo, diretor-executivo da Agência de Inovação da Unicamp, que participará das discussões sobre empreendedorismo e inovação aberta. “A Lei de Inovação [nº 10.793, de dezembro de 2004] abriu uma série de possibilidades para facilitar a parceria entre empresas e universidades no que tange a projetos de inovação”, observa Lotufo. “E as universidades estão se preparando para responder às demandas das empresas”.

Quem pode comprovar isso são empresas que praticam inovação aberta e que participarão do seminário: Natura, Cristália, Embraer, Embrapa e IBM. A Natura, por exemplo, conta com uma área específica para gestão de parcerias em inovação tecnológica, instituída em 2006.

“Nos dedicamos desde a formação das parcerias até a execução e acompanhamento dos projetos realizados com as instituições de pesquisa”, explica Sonia Tuccori, responsável pela área. A face pública do programa de inovação aberta da Natura é o portal Natura Campus, pelo qual a empresa explicita suas áreas de interesse e recebe da comunidade científica propostas de projetos.

“Em 2007 firmamos quinze novas parcerias a partir das propostas encaminhadas via Portal”, informa Sonia Tuccori. A meta da Natura é que 50% de suas pesquisas sejam realizadas em parceria com universidades; no final de 2007, elas eram 35%.

O laboratório Cristália também investe em inovação aberta a partir de parcerias com universidades, como USP, Unicamp, UFRJ e Universidade Federal do Amazonas. Junto com essas e outras instituições a empresa tem 25 projetos de pesquisa em andamento. Entre os temas em estudo estão o desenvolvimento de dois anti-retrovirais, um anticoagulante e uma substância que poderá proteger o coração contra infartos.

“Temos oito patentes já concedidas no Brasil e no exterior e cerca de 60 pedidos de patentes apresentados aos órgãos competentes, alguns ainda em fase de sigilo”, conta Ogari Pacheco, presidente do conselho diretor do Laboratório Cristália.

Patentes, aliás, são um ponto-chave no processo de inovação aberta. O presidente do Instituto Nacional de Propriedade Industrial (INPI), Jorge Ávila, observa que “a propriedade intelectual é o marco institucional que viabiliza a inovação aberta”.

Ávila estará na mesa-redonda “Open innovation e o sistema nacional de inovação”, em que ele vai mostrar que a propriedade intelectual “institui o mercado formal para o conhecimento e demais ativos intangíveis que circulam nos sistemas de inovação aberta”.

Outro ambiente propício à inovação aberta no Brasil são as incubadoras de empresas e os parques tecnológicos, revela o presidente da Associação Nacional de Entidades Promotoras de Empreendimentos Inovadores (Anprotec), Ary Plonski, também presente na mesa sobre empreendedorismo e inovação aberta.

“As incubadoras e parques certamente são elementos vitais para fazer com que a inovação aberta possa ocorrer; nas incubadoras, pela criação das pequenas empresas; nos parques tecnológicos, pela facilitação do contato entre grandes e pequenas empresas”, explica.

O Open Innovation Seminar 2008 será realizado no dia 16 de junho, das 9h às 19h, no World Trade Center, em São Paulo, SP (Av. Nações Unidas, 12.551). Mais informações e inscrições no site http://www.openinnovationseminar.com.br ou pelo fone (11) 4508-2755.
(Assessoria de Imprensa do evento)

Valor Econômico: Queda no registro de patentes frustra política industrial

O registro de patentes brasileiras no USPTO, escritório de marcas e patentes do Departamento de Comércio dos Estados Unidos, caiu 13% no triênio 2005/07 em comparação com os três anos anteriores

Chico Santos escreve para o “Valor Econômico”:

A queda de 13% no número de patentes brasileiras obtidas no USPTO, o escritório de marcas e patentes do Departamento de Comércio dos Estados Unidos, no triênio 2005-2007 reacendeu no país o debate sobre a eficácia das políticas de incentivo à inovação tecnológica no país. A aceitação pelo USPTO é a referência mundial na área de patentes.

O físico Roberto Nicolsky, professor da Universidade Federal do Rio de Janeiro (UFRJ) e diretor da Sociedade Brasileira Pró-Inovação Tecnológica (Protec) entende que o resultado brasileiro reflete erro de foco nas políticas públicas de apoio, apesar das boas intenções. Ele considera que os incentivos deveriam ser universais e não direcionados a setores.

Justamente no primeiro triênio de vigência da política industrial instituída em março de 2004, e da Lei de Inovação, de dezembro do mesmo ano, os números do USPTO compilados pela Protec não são animadores. O Brasil, que havia obtido o registro de 332 patentes no triênio anterior, reduziu o número para 288. Além disso, o país levou de goleada dos concorrentes asiáticos, sendo ultrapassado pela pequena Malásia, cujo número de registros saltou de 185 para 359, um aumento de 94%, na mesma comparação.

O confronto com os dois gigantes asiáticos que compartilham com o Brasil e a Rússia a badalada sigla Bric então, é ainda mais desolador. Índia e China, que já estavam muitos corpos à frente em números absolutos de patentes registradas no triênio 2002-2004, no período encerrado em 2007 aumentaram, respectivamente, 48% e 53% seus registros, atingindo 1.411 e 2.764 registros. O número chinês é praticamente dez vezes o brasileiro.

"É a única medida quantitativa que temos (do crescimento tecnológico). Não há dúvida de que o governo está fazendo força e quer acertar, mas temos que olhar os resultados e parar de ver apenas a oferta (de recursos)", disse Nicolsky. Para ele, o tema do apoio à inovação no Brasil "é cheio de mitos", entre eles o de que "a universidade é a grande geradora de inovação, quando esse papel é da empresa".

Com base nessa última afirmação, o físico diz que um dos erros das políticas tecnológicas brasileiras é que a universidade fica com uma fatia excessiva dos recursos do Fundo Nacional de Desenvolvimento Científico e Tecnológico (FNDCT). Do orçamento de R$ 2,55 bilhões da Financiadora de Estudos e Projetos (Finep), principal destino dos recursos do FNDCT, para este ano, as linhas voltadas para as empresas ficam com R$ 1,1 bilhão, enquanto as instituições de pesquisa ficam com o restante.

O presidente da Finep, Luis Fernandes, disse que o problema levantado pelo diretor da Protec "aponta para um problema real que é a desconexão entre a capacidade tecnológica do país e as empresas".

Segundo Fernandes, enquanto os depósitos de patentes brasileiras em escritórios internacionais não passam de 0,2% do total, as publicações de artigos em revistas científicas, outro indicador do grau de conhecimento de um país, alcançam 1,9%, um número compatível com o tamanho do Produto Interno Bruto (PIB) brasileiro em relação ao mundial. Fernandes disse que é essa dicotomia que o governo vem tentando combater com a sua política de inovação.

Outra crítica do diretor da Protec é quanto ao incentivo da Lei do Bem que permite a dedução do Imposto de Renda (IR) dos investimentos em inovação. Como o benefício só é extensivo às empresas que pagam o IR com base no lucro real, Nicolsky disse que ela acaba beneficiando apenas as grandes empresas, que representariam cerca de 6% do universo total de empresas do país. Aquelas que pagam IR sobre o lucro presumido ou pelo mecanismo do Simples - que a maioria das empresas - ficam de fora. Essas, na opinião do cientista, são justamente as que mais precisam da ajuda do governo para inovar.

Para Nicolsky, o grande mecanismo de apoio à inovação, praticado por todos países que deram certo, é o compartilhamento do risco entre Estado e empresa. No Brasil, esse sistema está expresso, principalmente, na linha de subvenção da Finep, iniciada em 2006. O físico entende que a instituição de fomento está no caminho certo, mas reclama do baixo valor disponibilizado (R$ 450 milhões no último edital, sendo R$ 324,5 milhões do orçamento para este ano).

Nicolsky propõe ainda a universalização da oferta dos recursos para subvenção, em vez de concentrá-los em setores pré-determinados. Na sua visão, enquanto as empresas e seus produtos não forem o foco principal das políticas de fomento, a indústria de transformação brasileira vai tender a um crescimento menor do que o do Produto Interno Bruto (PIB) do país, reduzindo sua participação relativa na economia brasileira.

Segundo Fernandes, da Finep, as críticas de Nicolsky à política de subvenções não correspondem à realidade. Primeiro, porque a subvenção para a empresa contratar pessoal para projetos de desenvolvimento tecnológico é universal, para qualquer segmento econômico. Essas políticas são traçadas em parceria com os Estados. Ele disse também que os recursos do FNDCT estão equilibrados entre o apoio direto às empresas, o apoio a parcerias entre universidades, institutos tecnológicos e empresas e o apoio a pesquisas básicas sem interação com as empresas.

Quanto ao edital nacional da subvenção, que elege áreas (são seis no último edital) beneficiadas, o presidente da Finep disse que ele está de acordo com a Política de Desenvolvimento Produtivo (PDP), a nova política industrial do governo. "Buscou-se nos seis setores identificar tecnologias críticas para desenvolvimento do país", disse Fernandes, acrescentando que abrir mão dessa escolha seria "não ter uma política estratégica de desenvolvimento".

Fernandes disse ainda que é preciso levar em conta que as políticas de estímulo à inovação no país são recentes. "A Lei de Inovação é de 2004, com efeitos em 2006. A Lei do Bem veio depois", ressaltou. Segundo ele, o interesse da Finep é buscar dentro do governo espaço para que os incentivos sejam cada vez mais amplos, especialmente aqueles referentes aos incentivos da Lei do Bem.

Em relação aos atuais recursos da Finep, o presidente da estatal disse que embora somente um terço seja destinado diretamente para as operações com as empresas, incluindo subvenções, mais um terço vai para o apoio a projetos de parceria entre universidades, institutos tecnológicos e empresas e apenas a outra terça parte fica com a pesquisa básica, sem interação direta com o mercado.
(Valor Econômico, 13/6)

Wednesday, June 11, 2008

MCT institui comitê consultivo para a área de nanotecnologia



O grupo será coordenado pelo secretário de Políticas e Programas de Desenvolvimento do MCT, Luiz Antônio Barreto de Castro

Foi publicada, na edição do dia 29 de maio do Diário Oficial da União, uma portaria do MCT que institui o Comitê Consultivo para a área de nanotecnologia.

A instância terá como objetivo assessorar o ministério sobre os macro-objetivos a serem alcançados, indicar as diretrizes a serem adotadas no apoio a projetos e avaliar a alocação de recursos.

O grupo será coordenado pelo secretário de Políticas e Programas de Desenvolvimento do MCT, Luiz Antônio Barreto de Castro, e contará com a participação dos seguintes membros: José Roberto Drugowich de Felício, do CNPq; Gilberto Hauagen Soares, da Finep; Carlos Alberto Achete, do Instituto Nacional de Metrologia, Normalização e Qualidade Industrial (Inmetro); Celso Pinto de Melo, da Universidade Federal de Pernambuco (UFPE); Nelson Eduardo Duran Caballero, da Universidade Estadual de Campinas (Unicamp); e Jairton Dupont, da Universidade Federal do Rio Grande do Sul (UFRGS).

A Coordenação-Geral de Micro e Nanotecnologias atuará como secretaria executiva do comitê.

A íntegra da portaria está disponível no link: https://http://www.in.gov.br/imprensa/visualiza/index.jsp?jornal=do&secao=2&pagina=7&data=29/05/2008
(Gestão C&T, 735)

Friday, May 30, 2008

STF libera pesquisas com embriões

Por 6 votos a 5, artigo 5.º da Lei de Biossegurança foi julgado constitucional; sessão tensa pôs fim a embate de 3 anos

O Estado de S. Paulo
Felipe Recondo e Lígia Formenti, BRASÍLIA
30/05/2008

Com um placar apertado, as pesquisas com células-tronco embrionárias foram liberadas ontem no País pelo Supremo Tribunal Federal (STF), dando sinal verde para a continuação dos estudos iniciados após a aprovação da Lei de Biossegurança, em 2005. No País, são pelo menos cinco projetos em andamento.

Em uma sessão tensa, marcada por duelos de argumentos entre os ministros, a Corte pôs fim ao embate judicial que durava três anos e colocava em lados opostos grupos religiosos e cientistas. Por 6 votos a 5, o artigo 5º da Lei de Biossegurança, que permite as pesquisas com células-tronco embrionárias para fins terapêuticos, foi julgado constitucional.

Os cinco ministros vencidos liberavam os estudos, mas sugeriam diferentes restrições, algumas que poderiam comprometer as pesquisas, conforme cientistas. Nenhuma delas, entretanto, foi referendada. Ficaram vencidos na discussão os ministros Carlos Alberto Menezes Direito, Ricardo Lewandowski, Eros Grau, Cezar Peluso e Gilmar Mendes. Votaram pela liberação das pesquisas, sem ressalvas, os ministros Carlos Ayres Britto, Celso de Mello, Ellen Gracie, Joaquim Barbosa, Cármen Lúcia e Marco Aurélio Mello.

A sessão de ontem, a terceira sobre o tema, começou oficialmente empatada: quatro ministros votaram por liberar as pesquisas sem restrições e outros quatro por permiti-las, desde que feitas algumas mudanças ou interpretações da lei. Faltavam apenas os votos dos ministros Marco Aurélio, Celso de Mello e do presidente do tribunal, Gilmar Mendes, para que o resultado fosse conhecido. Como as decisões são por maioria, faltavam, assim, apenas dois votos para acabar com o debate. E eles já haviam sido informalmente proferidos: Celso de Mello e Marco Aurélio adiantaram há meses que votariam por liberar as pesquisas sem restrição.

Bastou o ministro Marco Aurélio confirmar, em plenário, que liberaria as pesquisas para que cientistas, cadeirantes e advogados começassem a comemorar. “Todos ganham com esse resultado: a ciência, o País, os pacientes”, disse a pesquisadora Patrícia Pranke, da Faculdade de Farmácia da Universidade Federal do Rio Grande do Sul. “Todos vamos nos beneficiar dessa vitória. Temos uma enorme responsabilidade pela frente. Quero deixar claro que não estamos prometendo cura imediata, mas dar o melhor de nós nas pesquisas”, afirmou a geneticista Mayana Zatz, da Universidade de São Paulo (USP). “Queremos que os pacientes saibam que vamos lutar pelas mesmas condições de saúde do Primeiro Mundo”, complementou.

O voto de Gilmar Mendes, já no início da noite, por liberar as pesquisas desde que fossem previamente aprovadas por um órgão central, apenas fechou o julgamento.

PRINCÍPIO DA VIDA

Apesar de histórico, o julgamento do Supremo não definiu, como muitos esperavam, em que momento começa a vida humana - se na fecundação, se no 14º dia de gestação, em outro momento da gestação ou no nascimento. “Vários podem ser os inícios da vida humana tal seja a opção que se faça por determinada formulação teórica ou tese”, explicou o ministro Celso de Mello. Diante disso, os ministros restringiram-se apenas a concluir que a Constituição brasileira não garante ao embrião humano mantido em laboratório a garantia da inviolabilidade à vida e à dignidade.

A conclusão é uma derrota à tese da Igreja Católica, para quem a vida começa no momento da fecundação e para quem as pesquisas com células-tronco embrionárias deveriam ser terminantemente proibidas. Além disso, o veredicto do Supremo marcou o fim da carreira no Ministério Público daquele que foi responsável por judicializar esse debate: o ex-procurador-geral da República Cláudio Fonteles. Católico praticante, foi ele que ajuizou no STF a Ação Direta de Inconstitucionalidade que contestava a Lei de Biossegurança.

Na primeira sessão de julgamento, em março, Fonteles esteve no plenário do Supremo. Nas duas últimas sessões desta semana, sua ausência foi sentida. Fonteles está de licença e não voltará ao Ministério Público, como avisou aos assessores.

Venceram nessa disputa os cientistas e o argumento de que as pesquisas serão fundamentais na descoberta de terapias para tratar pacientes que sofrem de doenças que hoje são incuráveis, como diabete, mal de Parkinson e de Alzheimer.

A pendência judicial termina três anos e dois meses depois de a Lei de Biossegurança ter sido sancionada pelo presidente Luiz Inácio Lula da Silva, prazo maior do que estabelecido no texto para que os embriões ficassem congelados até que pudessem ser estudados. Pela lei, os cientistas podem pesquisar as células-tronco embrionárias obtidas de embriões inviáveis, ou congelados desde 2002, ou ainda que tenham sido congelados na data da sanção da lei. Para isso, os cientistas precisam da prévia autorização dos genitores.

Apesar da lei em vigor desde 2005, os pesquisadores tinham dificuldades em conseguir verbas para novos estudos com células-tronco embrionárias. Como dependem eminentemente de verba do governo, a pendenga judicial acabou por suspender o lançamento de editais para novas pesquisas na área. A decisão do Supremo alinha o Brasil com outros 25 países que permitem as pesquisas com células-tronco embrionárias. Entre eles, França, Espanha, Portugal, Reino Unido, Índia, Austrália, África do Sul, Estados Unidos e Canadá.

ATUAÇÃO

A polêmica em torno do uso de células-tronco contou com atores inusitados, mas que desempenharam um papel fundamental: os cientistas. Convictos de que o uso de células-tronco embrionárias poderia trazer avanços significativos para a área, pesquisadores deixaram por um tempo as bancadas de laboratórios para fazer um trabalho de convencimento entre políticos, organizações sociais e, nesta última etapa, entre magistrados.

Neste trabalho, além de inúmeras viagens a Brasília, pesquisadores passaram também a ocupar a mídia, para tentar convencer a população sobre a importância do uso de embriões. A geneticista Mayana Zatz e Patrícia Pranke transformaram-se em defensoras-símbolo das pesquisas. “Foi a primeira vez, mas deu certo. Isso mostra o quanto é importante que cientistas se unam para lutar pelos seus ideais”, afirmou Patrícia.

A FAVOR SEM RESTRIÇÕES

Ellen Gracie (5 de março)
“O aproveitamento nas pesquisas científicas com célula-tronco dos embriões é infinitamente mais útil e nobre do que o descarte vão dos mesmos”

Carlos Ayres Britto (5 de março)
“A Constituição Federal protege brasileiros, enquanto um embrião jamais poderá ser considerado Brasileiro”

Joaquim Barbosa (28 de maio)
“A proibição da pesquisa significa fechar os olhos para o desenvolvimento científico e para os eventuais benefícios que dele podem advir”

Celso de Mello (29 de maio)
“Vários podem ser o início da vida humana, segundo a concepção que cada um adota. Então, deve-se optar pela concepção que mais se adapte ao interesse público”

Carmen Lúcia Antunes Rocha (28 de maio)
“A pesquisa com células-tronco embrionárias não agride a dignidade da pessoa humana, antes a valoriza. O grão tem que morrer para germinar”

Marco Aurélio Mello (29 de maio)
“A questão é se eles (embriões) vão ser destruídos fazendo bem a alguém ou não”


COM RESTRIÇÕES

Antonio Cezar Peluso (28 de maio)
“Os embriões congelados não são portadores de vida nem equivalem a pessoas, não vejo como as pesquisas ofendem o chamado direito à vida”

Eros Grau (28 de maio)
“Nesses óvulos fecundados não há ainda vida humana. Nos embriões, e tomo o vocábulo em sentido corrente sim, neles há processo vital em curso”

Ricardo Lewandowski (28 de maio)
“A vida do ponto de vista estritamente legal começa na concepção,
iniciada quer in vitro quer no útero”

Carlos Menezes Direito (28 de maio)
“Se pelo bem praticamos o mal, se para salvar uma vida tiramos outra,
sem salvação ficará o homem”

Gilmar Mendes, presidente do STF (29 de maio)
“É sempre a humanidade que sai prejudicada com as tentativas de barrar os avanços científicos e tecnológicos”

 

Tuesday, May 20, 2008

O avanço dos países emergentes e o Brasil, artigo de Glauco Arbix e Mario Sergio Salerno

Vocês tinham visto esse artigo? Vejam como o autor amplia o conceito de inovação quando se refere a China e Índia.

Um grupo seleto de países emergentes tende a mudar a qualidade de suas economias. Está o Brasil preparado para esse salto?

Glauco Arbix, doutor em sociologia, é professor do Departamento de Sociologia da USP e coordenador do Observatório da Inovação do Instituto de Estudos Avançados da USP. Foi presidente do Ipea (Instituto de Pesquisa Econômica Aplicada) de 2003 a 2006. Mario Sergio Salerno, doutor e livre-docente em engenharia de produção, é professor do Departamento de Engenharia de Produção da Escola Politécnica da USP e coordenador do Observatório da Inovação do IEA-USP. Artigo publicado na "Folha de SP":

Em 2006, mais de 130 empresas foram beneficiadas por incentivos fiscais concedidos pela Lei do Bem, de 2005, segundo o Ministério da Ciência e Tecnologia (MCT). Apesar da insegurança que todo instrumento novo gera, sua utilização foi expressiva.

Se tomarmos o universo das empresas brasileiras, o número de usuários em um ano ainda é pequeno, mas, se relacionado à trajetória do país, o resultado ganha relevo.

Com a Lei do Bem, as empresas podem realizar abatimentos adicionais de 60% a 100% do total de gastos em pesquisa e desenvolvimento (P&D). A lei anterior (nº 8.661), que exigia aprovação prévia dos planos de P&D pelo MCT, gerou, em 13 anos, 196 projetos, com investimentos de R$ 5 bilhões. A Lei do Bem, apenas em 2006, patrocinou quase o mesmo número de empresas, uma renúncia fiscal de R$ 229 milhões e investimentos de R$ 1,44 bilhão.

É certo que ainda há muito a melhorar, mas é inegável que a lei funciona. É possível que a insegurança provocada pela novidade da lei e a expectativa disseminada em alguns meios empresariais sobre eventual rigidez de interpretação da Receita Federal tenham inibido várias empresas.

Porém, a lei derrubou o sistema anterior de submissão prévia de projetos e deu às empresas mais liberdade para definir estratégias e alocar investimentos. Ou seja, a aplicação automática da lei, com fiscalização apenas a posteriori, simplificou processos e trouxe conseqüências positivas inegáveis, diminuindo burocracia e custos.

A lei nasceu da política industrial definida pelo governo em 2004. Foi pensada para incentivar uma cultura da inovação capaz de alterar hábitos, repensar instituições e melhor aproveitar os instrumentos existentes para aumentar nossa competitividade.

Dois concorrentes diretos do Brasil, China e Índia, consideram inovação muito mais do que tecnologia. Para eles, inovação está ligada a processos, serviços, produtos, logística, marca e novos modelos de negócio.

Mais de 60% dos investimentos em inovação na China e na Índia estão relacionados à utilização de conhecimento maduro e já disponível. Isso, e não um eventual domínio de tecnologias críticas, explica, em grande parte, seu acelerado crescimento.

O Ipea já detectou o salto qualitativo dado por muitas empresas brasileiras graças à inovação, o que nem sempre foi percebido com clareza pelo governo e por entidades empresariais.

Quantos analistas acostumados a reduzir o Brasil à macroeconomia compreenderam a ascensão das exportações? Quantos perceberam as mudanças que ocorreram no interior das empresas? Poucos, muito poucos. Nos últimos anos, muitas empresas brasileiras entraram em sintonia com o novo cenário mundial.

Em 2007, as economias emergentes responderam por cerca de metade do PIB mundial (em PPP). Desde que China, Índia, Brasil e Rússia começaram a abrir suas economias, a força de trabalho global dobrou. Em dez anos, cerca de 1 bilhão de novos consumidores entrarão nos mercados, graças ao crescimento dos emergentes.

A participação dos países em desenvolvimento nas exportações mundiais foi de mais de 40% no ano passado, quando era de 20% nos anos 70.

Esses países já respondem por mais de metade da energia consumida no planeta e seus bancos centrais são guardiões de mais de 70% das reservas mundiais. O PIB dos emergentes representa mais de 43% do PIB mundial, enquanto os PIBs dos EUA e da Europa somados não chegam a 36%.

A economia dos emergentes contribuiu em 2007 com cerca de 70% para o crescimento do PIB mundial; os países europeus e os EUA contribuíram com menos de 20%. Muito dessa mudança está relacionado ao desempenho da China, é fato. Mas não há como negar que um grupo seleto de países emergentes tende a mudar a qualidade de suas economias com fortes impactos sociais.

Está o Brasil preparado para tal salto? Empresas chinesas e indianas já são líderes mundiais em vários setores da economia. Em algumas áreas o Brasil também avançou, mas, no conjunto, as nossas empresas ainda estão muito atrás dos principais concorrentes.

Seria mais do que oportuno se elas contassem com mais instrumentos de política industrial e tecnológica para se internacionalizarem e inovar com mais força e rapidez. A Política de Desenvolvimento Produtivo, recém-lançada pelo governo federal, apenas toca no tema, mas é preciso avançar muito mais.

A integração crescente dos países emergentes à economia global desenha cenários que apontam para o maior reposicionamento das nações desde a Revolução Industrial. Resta saber se eles conseguirão melhorar efetivamente a vida de seus povos.
(Folha de SP, 19/5)

Brasil cresce entre os que mais publicam artigos científicos

Mídia Impressa: Folha de S. Paulo
20/05/2008

No ranking de países que mais publicam artigos científicos no mundo, o Brasil subiu da 21ª posição, em 1996, para a 15ª, em 2006, segundo o novo indicador de produção científica SJR (SCimago Journal Country Rank), desenvolvido por um grupo de pesquisa espanhol, conduzido pelo cientista Félix de Moya, da Universidade de Granada. Na América Latina, o Brasil lidera o ranking com 25.266 artigos científicos publicados em 2006 (veja acima). Na lista geral, os EUA estão no topo, seguidos por China, Reino Unido e Japão. Segundo o SJR, pesquisadores brasileiros alcançaram mais de 160 mil publicações de 1996 a 2006. Os números de 2007 estão em análise. Moya vem ao Brasil em junho a convite da editora Elsevier, para falar do indicador, no CNPq.

Brasil: ABDI lança Portal Inovação

A Agência Brasileira de Desenvolvimento Industrial (ABDI) estreou a nova versão do Portal Inovação, serviço eletrônico que estimula a cooperação entre os vários atores do sistema nacional de inovação, inseridos na academia, setor privado e governo.

O portal foi concebido pelo Centro de Gestão e Estudos Estratégicos (CGEE), em colaboração com o Instituto Stela, de Santa Catarina. Além de promover a interação entre a oferta e a demanda por conhecimento tecnológico, o objetivo do portal, segundo a ABDI, é criar um ambiente rico em informações relevantes para a promoção da inovação no país.

A nova edição consiste na ampliação e consolidação dos instrumentos e componentes do portal, na reformulação do seu design e no intercâmbio de informações entre serviços e sistemas internos, como as bases de dados de outras instituições.

Com essas ferramentas é possível produzir estudos setoriais e temáticos sobre inovação à medida que empresas de todo o país podem encontrar indicadores específicos para o seu estado e também indicadores de outras empresas no sistema nacional de inovação.

Ao fazer a gestão das informações que constam no site, o usuário pode analisar para quais áreas de conhecimento ou setores da economia estão sendo direcionados os instrumentos de apoio à inovação, ou ainda se os investimentos têm alterado a competitividade do setor produtivo nacional.

Pode ainda demandar ou ofertar competências em recursos humanos uma vez que o portal conta com currículos de especialistas e, no caso de empresas, os portfólios de produtos e serviços.

O site traz ainda notícias, eventos e acesso aos instrumentos de incentivo à Política Industrial Tecnológica e de Comércio Exterior (Pitce), marcos legais sobre inovação, casos de sucesso, relatórios estratégicos e biblioteca virtual.

Serviços exclusivos para as pequenas e médias empresas também são oferecidos a partir de um recorte setorial desenvolvido por encomenda da Associação Nacional de Entidades Promotoras de Empreendimentos Inovadores (Anprotec).

O Portal Inovação mobiliza atualmente mais de 19 mil grupos de pesquisa e desenvolvimento de universidades e instituições de ciência e tecnologia no Brasil e 3,4 mil empresas e 280 institutos de ciência, tecnologia e inovação.

Mais informações: www.portalinovacao.mct.gov.br

(fonte: Agência FAPESP)

Monday, May 19, 2008

Maior parte do investimento em C&T nos EUA vai para a área de defesa

Segundo a Associação Americana para o Avanço da Ciência (AAAS), orçamento federal para P&D em 2009 terá aumento de 3,4% (4,9 bilhões) em relação ao ano passado, totalizando 147,4 bilhões de dólares.

Um recente estudo divulgado pelo diretor para política e orçamento da Associação Americana para o Avanço da Ciência (AAAS), Kei Koizumi, aponta tendências que revelam as prioridades do Governo dos EUA em matéria de C&T.

(segue)

Monday, April 21, 2008

Making the World A Billion Times Better - an article at Washington Post

By Ray KurzweilSunday, April 13, 2008; Page B04

M IT was so advanced in 1965 (the year I entered as a freshman) that it actually had a computer. Housed in its own building, it cost $11 million (in today's dollars) and was shared by all students and faculty. Four decades later, the computer in your cellphone is a million times smaller, a million times less expensive and a thousand times more powerful. That's a billion-fold increase in the amount of computation you can buy per dollar.
Yet as powerful as information technology is today, we will make another billion-fold increase in capability (for the same cost) over the next 25 years. That's because information technology builds on itself -- we are continually using the latest tools to create the next so they grow in capability at an exponential rate. This doesn't just mean snazzier cellphones. It means that change will rock every aspect of our world. The exponential growth in computing speed will unlock a solution to global warming, unmask the secret to longer life and solve myriad other worldly conundrums. [read entire article]

Wednesday, April 16, 2008

A QUOTE: Napoleon

«Sachez écouter, et soyez sûr que le silence produit souvent le même effet que la science.»

 

 

Tuesday, April 15, 2008

The Future Is Now

By Joel Achenbach
Sunday, April 13, 2008; B01

http://www.washingtonpost.com/wp-dyn/content/article/2008/04/11/AR2008041103328.html

The most important things happening in the world today won't make tomorrow's front page. They won't get mentioned by presidential candidates or Chris Matthews or Bill O'Reilly or any of the other folks yammering and snorting on cable television.

They'll be happening in laboratories -- out of sight, inscrutable and unhyped until the very moment when they change life as we know it.

Science and technology form a two-headed, unstoppable change agent. Problem is, most of us are mystified and intimidated by such things as biotechnology, or nanotechnology, or the various other -ologies that seem to be threatening to merge into a single unspeakable and incomprehensible thing called biotechnonanogenomicology. We vaguely understand that this stuff is changing our lives, but we feel as though it's all out of our control. We're just hanging on tight, like Kirk and Spock when the Enterprise starts vibrating at Warp 8.

What's unnerving is the velocity at which the future sometimes arrives. Consider the Internet. This powerful but highly disruptive technology crept out of the lab (a Pentagon think tank, actually) and all but devoured modern civilization -- with almost no advance warning. The first use of the word "internet" to refer to a computer network seems to have appeared in this newspaper on Sept. 26, 1988, in the Financial section, on page F30 -- about as deep into the paper as you can go without hitting the bedrock of the classified ads.

The entire reference: "SMS Data Products Group Inc. in McLean won a $1,005,048 contract from the Air Force to supply a defense data network internet protocol router." Perhaps the unmellifluous compound noun "data network internet protocol router" is one reason more of us didn't pay attention. A couple of months later, "Internet" -- still lacking the "the" before its name -- finally elbowed its way to the front page when a virus shut down thousands of computers. The story referred to "a research network called Internet," which "links as many as 50,000 computers, allowing users to send a variety of information to each other." The scientists knew that computer networks could be powerful. But how many knew that this Internet thing would change the way we communicate, publish, sell, shop, conduct research, find old friends, do homework, plan trips and on and on?

Joe Lykken, a theoretical physicist at the Fermilab research center in Illinois, tells a story about something that happened in 1990. A Fermilab visitor, an English fellow by the name of Tim Berners-Lee, had a new trick he wanted to demonstrate to the physicists. He typed some code into a little blank box on the computer screen. Up popped a page of data.

Lykken's reaction: Eh.

He could already see someone else's data on a computer. He could have the colleague e-mail it to him and open it as a document. Why view it on a separate page on some computer network?

But of course, this unimpressive piece of software was the precursor to what is known today as the World Wide Web. "We had no idea that we were seeing not only a revolution, but a trillion-dollar idea," Lykken says.

Now let us pause to reflect upon the fact that Joe Lykken is a very smart guy -- you don't get to be a theoretical physicist unless you have the kind of brain that can practically bend silverware at a distance -- and even he, with that giant cerebral cortex and the billions of neurons flashing and winking, saw the proto-Web and harrumphed. It's not just us mortals, even scientists don't always grasp the significance of innovations. Tomorrow's revolutionary technology may be in plain sight, but everyone's eyes, clouded by conventional thinking, just can't detect it. "Even smart people are really pretty incapable of envisioning a situation that's substantially different from what they're in," says Christine Peterson, vice president of Foresight Nanotech Institute in Menlo Park, Calif.

So where does that leave the rest of us?

In technological Palookaville.

Science is becoming ever more specialized; technology is increasingly a series of black boxes, impenetrable to but a few. Americans' poor science literacy means that science and technology exist in a walled garden, a geek ghetto. We are a technocracy in which most of us don't really understand what's happening around us. We stagger through a world of technological and medical miracles. We're zombified by progress.

Peterson has one recommendation: Read science fiction, especially "hard science fiction" that sticks rigorously to the scientifically possible. "If you look out into the long-term future and what you see looks like science fiction, it might be wrong," she says. "But if it doesn't look like science fiction, it's definitely wrong."

That's exciting -- and a little scary. We want the blessings of science (say, cheaper energy sources) but not the terrors (monsters spawned by atomic radiation that destroy entire cities with their fiery breath).

Eric Horvitz, one of the sharpest minds at Microsoft, spends a lot of time thinking about the Next Big Thing. Among his other duties, he's president of the Association for the Advancement of Artificial Intelligence. He thinks that, sometime in the decades ahead, artificial systems will be modeled on living things. In the Horvitz view, life is marked by robustness, flexibility, adaptability. That's where computers need to go. Life, he says, shows scientists "what we can do as engineers -- better, potentially."

Our ability to monkey around with life itself is a reminder that ethics, religion and old-fashioned common sense will be needed in abundance in decades to come (see the essay on page B1 by Ronald M. Green). How smart and flexible and rambunctious do we want our computers to be? Let's not mess around with that Matrix business.

Every forward-thinking person almost ritually brings up the mortality issue. What'll happen to society if one day people can stop the aging process? Or if only rich people can stop getting old?

It's interesting that politicians rarely address such matters. The future in general is something of a suspect topic . . . a little goofy. Right now we're all focused on the next primary, the summer conventions, the Olympics and their political implications, the fall election. The political cycle enforces an emphasis on the immediate rather than the important.

And in fact, any prediction of what the world will be like more than, say, a year from now is a matter of hubris. The professional visionaries don't even talk about predictions or forecasts but prefer the word "scenarios." When Sen. John McCain, for example, declares that radical Islam is the transcendent challenge of the 21st century, he's being sincere, but he's also being a bit of a soothsayer. Environmental problems and resource scarcity could easily be the dominant global dilemma. Or a virus with which we've yet to make our acquaintance. Or some other "wild card."

Says Lykken, "Our ability to predict is incredibly poor. What we all thought when I was a kid was that by now we'd all be flying around in anti-gravity cars on Mars."

Futurists didn't completely miss on space travel -- it's just that the things flying around Mars are robotic and take neat pictures and sometimes land and sniff the soil.

Some predictions are bang-on, such as sci-fi writer Arthur C. Clarke's declaration in 1945 that there would someday be communications satellites orbiting the Earth. But Clarke's satellites had to be occupied by repairmen who would maintain the huge computers required for space communications. Even in the late 1960s, when Clarke collaborated with Stanley Kubrick on the screenplay to "2001: A Space Odyssey," he assumed that computers would, over time, get bigger. "The HAL 9000 computer fills half the spaceship," Lykken notes.

Says science-fiction writer Ben Bova, "We have built into us an idea that tomorrow is going to be pretty much like today, which is very wrong."

The future is often viewed as an endless resource of innovation that will make problems go away -- even though, if the past is any judge, innovations create their own set of new problems. Climate change is at least in part a consequence of the invention of the steam engine in the early 1700s and all the industrial advances that followed.

Look again at the Internet. It's a fantastic tool, but it also threatens to disperse information we'd rather keep under wraps, such as our personal medical data, or even the instructions for making a fission bomb.

We need to keep our eyes open. The future is going to be here sooner than we think. It'll surprise us. We'll try to figure out why we missed so many clues. And we'll go back and search the archives, and see that thing we should have noticed on page F30.

achenbachj@washpost.com

Joel Achenbach is a reporter on the national staff of The Washington Post.

Thursday, April 10, 2008

Buracos negros da Internet são mapeados por Hubble virtual

Inovação Tecnologica - 10/04/2008
Assunto: Acesso à Internet

A experiência é frustrante: você tenta visitar um site e ele não responde, apesar de sucessivas tentativas. Pode ser que o servidor esteja fora do ar ou passando por alguma manutenção. Mas o motivo pode ser bem mais misterioso.

"Há uma suposição de que, se você tem uma conexão funcionando com a Internet, então você tem acesso a toda a Internet. Nós descobrimos que não é bem assim," explica Ethan Katz-Bassett, um dos idealizadores do Hubble virtual.

Buracos negros na Internet

Cientistas da Universidade de Washington, Estados Unidos, descobriram que existem verdadeiros buracos negros na Internet, interrupções nas comunicações que impedem que usuários de determinada região geográfica acessem servidores localizados em outra região, mesmo que os servidores estejam funcionando corretamente.

As informações coletadas até agora mostram que mais de 7 por cento de todos os servidores da Internet caíram em "buracos negros" virtuais ao menos uma vez durante um período de três semanas.

Hubble virtual

Para localizar esses buracos negros, os cientistas criaram um sistema batizado de Hubble, em homenagem ao telescópio espacial que procura por corpos celestes no espaço profundo. Ao invés de vasculhar as galáxias, o Hubble virtual mapeia os mistérios dos roteadores e cabos de fibras-ópticas que formam a rede mundial de computadores.

A observação da rede mundial é feita por meio de 100 computadores da rede de pesquisas PlanetLab, distribuídos por cerca de 40 países. O sistema de monitoramento envia "sondas virtuais", pequenos programas de teste que checam se determinado computador está respondendo. Esses programas atualmente atingem 90% de toda a Internet.

Acessibilidade parcial

Como se originam de diversos computadores do PlanetLab, o Hubble virtual consegue detectar computadores que estão acessíveis de um ponto mas não de outro, uma situação conhecida como acessibilidade parcial. Pequenas falhas de comunicação são ignoradas - para ser registrado, um problema deve ser constatado em duas tentativas consecutivas de 15 minutos cada uma.

O mapa do céu da Internet é atualizado a cada 15 minutos, cobrindo todo o planeta. São mostrados todos o locais que estão passando por problemas, e que possuem computadores que não estão acessíveis de outros pontos da rede mesmo estando operando corretamente.

Ferramenta proativa

Cada bandeira no mapa corresponde a centenas e até milhares de computadores. Além do mapa, é apresentada uma listagem com os endereços IP dos servidores, contendo a indicação do país em que se encontram.

O principal objetivo do mapa produzido pelo Hubble virtual é fornecer uma nova ferramenta para os administradores de rede, que poderão ser alertados de forma proativa de problemas em sua área ou em seus roteadores.

Wednesday, April 9, 2008

Ciência e Inovação para diplomatas

O ministro da C&T, Sergio Rezende, proferiu nesta segunda-feira palestra sobre Ciência, Tecnologia e Inovação para alunos do curso de aperfeiçoamento de diplomatas, no auditório do Instituto Rio Branco, em Brasília

A explanação incluiu um breve histórico sobre a trajetória nacional no setor de C&T, desde a década de 90, época marcada por crises e queda no número de bolsas oferecidas pelo CNPq/MCT até os dias atuais. De acordo com Rezende, na virada do século, o país já havia formado 50 mil pesquisadores com doutorado.

Entre os anos de 1999 e 2002, o sistema de C&T passou por uma fase de transição. Neste período, o CNPq criou outras modalidades de financiamento e foram criados os Fundos Setoriais visando garantir a ampliação e a estabilidade do encaminhamento de recursos para a área.

Segundo dados fornecidos pelo ministro, nos quatro anos seguintes, o setor se desenvolveu devido à ampliação dos recursos federais. O investimento em C&T promoveu o crescimento da comunidade científica em pelo menos 20% em comparação à década de 70. Em 2006, R$ 1,1 bilhão foi investido no segmento científico-tecnológico e o CNPq ofereceu 65 mil bolsas de estudo. No mesmo ano, foram formados 9,6 mil doutores no Brasil.

A publicação de artigos científicos nacionais em revistas internacionais indexadas também teve crescimento de 8,2%, valor correspondente a quatro vezes a média mundial (1,9%).

Hoje, o Brasil tem mais de 80 mil pesquisadores com doutorado. Na América Latina, é o país com maior e mais qualificada comunidade de Ciência e Tecnologia. O ministro destacou ainda os setores econômicos melhor sucedidos sob o aspecto do desenvolvimento tecnológico no país: petróleo, agronegócio e aeronáutico.
(Monalisa Silva, da Assessoria de Comunicação do MCT)

Tuesday, April 8, 2008

Breakthrough In Biofuel Production Process

ScienceDaily (2008-04-08) -- Researchers have made a breakthrough in the development of "green gasoline," a liquid identical to standard gasoline yet created from sustainable biomass sources like switchgrass and poplar trees. ... > read full article

The Sunday Times - superfast internet

From The Sunday Times

April 6, 2008

Coming soon: superfast internet

Jonathan Leake, Science Editor

THE internet could soon be made obsolete. The scientists who pioneered it have now built a lightning-fast replacement capable of downloading entire feature films within seconds.

At speeds about 10,000 times faster than a typical broadband connection, “the grid” will be able to send the entire Rolling Stones back catalogue from Britain to Japan in less than two seconds.

The latest spin-off from Cern, the particle physics centre that created the web, the grid could also provide the kind of power needed to transmit holographic images; allow instant online gaming with hundreds of thousands of players; and offer high-definition video telephony for the price of a local call.

David Britton, professor of physics at Glasgow University and a leading figure in the grid project, believes grid technologies could “revolutionise” society. “With this kind of computing power, future generations will have the ability to collaborate and communicate in ways older people like me cannot even imagine,” he said.

The power of the grid will become apparent this summer after what scientists at Cern have termed their “red button” day - the switching-on of the Large Hadron Collider (LHC), the new particle accelerator built to probe the origin of the universe. The grid will be activated at the same time to capture the data it generates.

Cern, based near Geneva, started the grid computing project seven years ago when researchers realised the LHC would generate annual data equivalent to 56m CDs - enough to make a stack 40 miles high.

This meant that scientists at Cern - where Sir Tim Berners-Lee invented the web in 1989 - would no longer be able to use his creation for fear of causing a global collapse.

This is because the internet has evolved by linking together a hotchpotch of cables and routing equipment, much of which was originally designed for telephone calls and therefore lacks the capacity for high-speed data transmission.

By contrast, the grid has been built with dedicated fibre optic cables and modern routing centres, meaning there are no outdated components to slow the deluge of data. The 55,000 servers already installed are expected to rise to 200,000 within the next two years.

Professor Tony Doyle, technical director of the grid project, said: “We need so much processing power, there would even be an issue about getting enough electricity to run the computers if they were all at Cern. The only answer was a new network powerful enough to send the data instantly to research centres in other countries.”

That network, in effect a parallel internet, is now built, using fibre optic cables that run from Cern to 11 centres in the United States, Canada, the Far East, Europe and around the world.

One terminates at the Rutherford Appleton laboratory at Harwell in Oxfordshire.

From each centre, further connections radiate out to a host of other research institutions using existing high-speed academic networks.

It means Britain alone has 8,000 servers on the grid system – so that any student or academic will theoretically be able to hook up to the grid rather than the internet from this autumn.

Ian Bird, project leader for Cern’s high-speed computing project, said grid technology could make the internet so fast that people would stop using desktop computers to store information and entrust it all to the internet.

“It will lead to what’s known as cloud computing, where people keep all their information online and access it from anywhere,” he said.

Computers on the grid can also transmit data at lightning speed. This will allow researchers facing heavy processing tasks to call on the assistance of thousands of other computers around the world. The aim is to eliminate the dreaded “frozen screen” experienced by internet users who ask their machine to handle too much information.

The real goal of the grid is, however, to work with the LHC in tracking down nature’s most elusive particle, the Higgs boson. Predicted in theory but never yet found, the Higgs is supposed to be what gives matter mass.

The LHC has been designed to hunt out this particle - but even at optimum performance it will generate only a few thousand of the particles a year. Analysing the mountain of data will be such a large task that it will keep even the grid’s huge capacity busy for years to come.

Although the grid itself is unlikely to be directly available to domestic internet users, many telecoms providers and businesses are already introducing its pioneering technologies. One of the most potent is so-called dynamic switching, which creates a dedicated channel for internet users trying to download large volumes of data such as films. In theory this would give a standard desktop computer the ability to download a movie in five seconds rather than the current three hours or so.

Additionally, the grid is being made available to dozens of other academic researchers including astronomers and molecular biologists.

It has already been used to help design new drugs against malaria, the mosquito-borne disease that kills 1m people worldwide each year. Researchers used the grid to analyse 140m compounds - a task that would have taken a standard internet-linked PC 420 years.

“Projects like the grid will bring huge changes in business and society as well as science,” Doyle said.

“Holographic video conferencing is not that far away. Online gaming could evolve to include many thousands of people, and social networking could become the main way we communicate.

“The history of the internet shows you cannot predict its real impacts but we know they will be huge.”