• mqt_for@hotmail.com
  • Brasil

Tecnologia: Não poderemos viver mais mil anos na Terra, diz Hawking

Stephen Hawking: cientista britânico ressaltou que há muitos experimentos ambiciosos programados para o futuro.

Stephen Hawking
Da EFE

O físico Stephen Hawking afirmou nesta quarta-feira que a exploração espacial deve continuar, já que o futuro da humanidade depende disso, pois os homens não conseguirão sobreviver mais mil anos sem ir “além de nosso frágil planeta”.

Hawking participou da terceira jornada do Festival Starmus que reúne cientistas e músicos em Tenerife e La Palma, nas Ilhas Canárias, na Espanha, entre eles 11 prêmios Nobel, em uma edição que se desenvolve sob o lema: “Além do horizonte, um tributo a Stephen Hawking”.[ad name=”Retangulo – Anuncios – Direita”]

O cientista britânico ressaltou que há muitos experimentos ambiciosos programados para o futuro, como mapear a posição de bilhões de galáxias, além de utilizar os supercomputadores para compreender melhor “nossa posição” no Universo.

Talvez, algum dia, seja possível utilizar as ondas gravitacionais para olhar para trás, em direção à origem do próprio Big Bang, afirmou o premiado físico, que se mostrou convencido de que a humanidade deve “continuar explorando o espaço para seu futuro”.

Hawking fez um balanço emotivo de sua vida em uma conversa intitulada “Minha breve história” – em referência a seu famosíssimo livro “Uma breve história do tempo” – e assegurou que viveu um tempo glorioso realizando pesquisas sobre física teórica.

“Nossa imagem do Universo mudou bastante nos últimos 50 anos e fico feliz de ter feito uma pequena contribuição”, disse aquele que é considerado um dos cientistas mais influentes do mundo.

Para Hawking, nós humanos não somos mais do que conjuntos de partículas que, no entanto, estão próximas de compreender as leis que nos governam, “e isso é uma grande vitória”.

A cosmologia se transformou em uma ciência de precisão em 2003 com os resultados do satélite Wmap, que produziu “um mapa maravilhoso das temperaturas do fundo cósmico a um centésimo de sua idade atual”.

Nele, é possível perceber como a atração gravitacional desacelera a expansão de uma região do Universo, até que eventualmente colapsa sobre si mesma para formar galáxias e estrelas.

Esse mapa “é a pegada da estrutura de tudo o que há no Universo”, opinou Hawking, que afirmou que agora o satélite ESA Planck produziu outra imagem com uma resolução muito mais alta e que, com ela, talvez seja possível detectar a marca das ondas gravitacionais, algo como “ter a gravidade quântica escrita no céu”.

Stephen Hawking nasceu em 8 de janeiro de 1942, justo 300 anos depois do nascimento de Galileu, mas calcula que nesse mesmo dia devem ter nascido outras 200 mil pessoas no planeta, e lembrou que, apesar de sua péssima caligrafia, os companheiros de escola o chamavam de Einstein.

Hawking já falava no colégio sobre a origem do Universo e se nisso havia intervenção divina. Quando entrou na Universidade de Cambridge, a cosmologia em geral não era algo ainda muito desenvolvido e o jovem Hawking se dedicou a ler a teoria geral da relatividade “sem chegar a compreendê-la a fundo”.

Foi naquela época que ele começou a perceber que algo não estava bem com seu corpo, já que não tinha facilidade para remar, nem para patinar sobre o gelo e ficou deprimido ao ver como seu estado de saúde piorava rapidamente e não sabia se viveria o suficiente para finalizar sua tese.

Este foi o início da esclerose lateral amiotrófica da qual padece, uma doença que o ajudou a ver que “cada novo dia era uma recompensa”, conforme ele mesmo destacou, e que o encorajou a ter curiosidade e, por mais difícil que a vida possa parecer, a estar consciente de que “sempre há alguma coisa que alguém pode fazer bem feito: o que importa é não se render jamais”.

IBM cria processador quântico, e você pode testá-lo

Cientistas da divisão de pesquisa da IBM criaram um processador quântico e habilitaram uma plataforma para que qualquer pessoa possa testá-lo.

IBM,Física Quântica,Computadores,Blog do Mesquita

Embora ainda falte algum tempo para que a computação quântica transforme os atuais computadores em coisa do passado, trata-se de um grande passo no sentido de torná-la realidade.

MAIS INFORMAÇÕES

Warren Buffett perde um bilhão de dólares em dois dias com a IBM
A IBM lança cinco previsões para cinco anos

Ocorre com os computadores quânticos o mesmo que com o grafeno: mais promessa do que realidade. Utilizando-se de alguns dos estranhos fenômenos da física quântica, essa tecnologia promete deixar para trás as limitações das máquinas atuais, a começar pela revogação da Lei de Moore.

Numa certa medida, os computadores de hoje em dia se apoiam na física clássica, de Isaac Newton. Os do futuro irão usufruir a mecânica quântica, o comportamento da matéria no nível subatômico, para ser diabolicamente velozes, versáteis, potentes e seguros.

Milhares de cientistas do mundo inteiro estão de olho nesse futuro, assim como as grandes empresas de tecnologia e até mesmo os serviços de segurança de países como os EUA. Uma dessas empresas é a IBM, que tem uma bagagem histórico nada desprezível em termos de informática.

Pesquisadores de seu recém-criado Research Frontiers Institute desenvolveram um processador quântico. Não é o primeiro do gênero, mas é a primeira vez que quase qualquer pessoa poderá testá-lo.

Se os bits são a base dos computadores convencionais, os qubits serão a dos equipamentos quânticos. Embora possam ter dois estados diferentes (como os zeros e os uns da tecnologia digital), os qubits podem ter os dois estados ao mesmo tempo, naquilo que é conhecido como uma superposição.

Por isso, eles são totalmente diferentes dos bits, tanto no que se refere à informação armazenada quanto na forma com que ela é trabalhada.

Os primeiros computadores quânticos levarão uma década para chegar, mas serão 100 milhões de vezes mais velozes

O processador quântico apresentado pela IBM é composto por cinco desses qubits, o que constitui um recorde para a empresa. Os teóricos sugerem que, para que os computadores quânticos se tornem realidade, será necessário que disponham de uma quantidade bem maior de qubits.

Na IBM, acredita-se que, dentro de dez anos, será possível a existência de máquinas com 50 ou até 100 qubits. Nesse caso, um desses equipamentos será até 100 milhões de vezes mais veloz do que os atuais. E a velocidade não é a maior vantagem da computação quântica.

“Os computadores quânticos são bem diferentes dos de hoje em dia, não só no seu formato e no material com que são construídos, mas, mais importante, naquilo que serão capazes de fazer”, afirma, em uma nota, o diretor da IBM Research, Arvind Krishna.

“A computação quântica está se tornando realidade, e levará a informática muito além do que se pode imaginar com a tecnologia atual”.

A segunda boa notícia é que a IBM abriu a sua plataforma para especialistas e pesquisadores do mundo inteiro para que possam trabalhar com o processador quântico. À medida que forem acumulando qubits, os cientistas poderão fazer testes com esse novo hardware.

Além de testar diferentes configurações do processador, será formada, assim, uma comunidade de compartilhamento de conhecimentos sobre a computação quântica.

“Este momento representa o nascimento da informática na nuvem quântica. Permitindo acesso aos sistemas quânticos experimentais, a IBM facilitará que os cientistas acelerem as inovações no cenário quântico e ajudará na descoberta de novos usos para essa tecnologia”, avalia Krishna.
Miguel Angel Criado/ElPaís

Greenglow, o projeto misterioso que quer controlar a gravidade

Bem-vindo ao Projeto Greenglow, onde um grupo de cientistas radicais explora a força da gravidade.

Ron Evans, a mente por trás do Projeto Greenglow – Image copyright Divulgaçãoo

Na ciência há uma parceria poderosa entre teoria e engenharia. É o que originou a energia atômica, o acelerador de partículas LHC (Large Hadron Collider ou Grande Colisor de Hádrons) e os voos espaciais, para citar exemplos mais famosos.

Os teóricos dizem: “Isso é possível teoricamente”. Os engenheiros então buscam descobrir como fazer, confiantes na correção da matemática e da teoria.

As áreas, claro, não se excluem. Teóricos entendem de engenharia. Engenheiros partem de um conhecimento profundo da teoria. Costuma ser uma relação harmoniosa – e competitiva.

Mas às vezes esses mundos podem colidir. Teóricos dizem que algo não é possível e engenheiros respondem: “Vamos tentar assim mesmo – vale conferir.”

Há um campo da ciência em que uma disputa como essa se arrasta por anos, talvez a área mais controversa em toda a ciência/engenharia – o controle da gravidade.

Tentativa pioneira

Quando o engenheiro aeroespacial Ron Evans procurou seus chefes no final dos anos 1980 na BAE Systems (multinacional britânica de tecnologia aeroespacial e de defesa) e perguntou se o autorizariam a buscar alguma forma de controle da gravidade, eles provavelmente pediram que tomasse um chá e se acalmasse.

O controle da gravidade era uma ideia de ficção científica que todo físico teórico respeitado dizia ser impossível.

Supercondutores são uma fonte de pesquisa para novas formas de propulsão

Evans admite que convencer os chefes foi tarefa difícil. “Muitos na empresa achavam que não deveríamos tentar porque fazíamos aviões e isso era muito especulativo.”

Enfrentar a gravidade com asas e turbinas era o negócio bilionário da BAE, então por que se aventurar em heresias científicas? Evans justifica: “O potencial era absolutamente enorme. Poderia mudar totalmente a engenharia aeroespacial.”

Se fosse possível fazer a gravidade empurrar em vez de puxar, eles teriam uma fonte potencialmente infinita – e gratuita – de propulsão. Isso colocaria a BAE Systems na dianteira da maior revolução tecnológica desde a invenção do voo a motor. Talvez valesse tentar.

Pediram a Evans que se reunisse com sua equipe e voltasse com alguns conceitos. Ele apresentou um desenho de um avião de decolagem vertical, alimentado por um “motor de gravidade” ainda inexistente.

Para o rascunho ficar ainda mais visionário, ele pediu ao desenhista incluir alguns raios verdes saindo do avião – um brilho verde. Quando os chefes de Evans decidiram autorizar uma pequena verba e um escritório, nasceu o Projeto Greenglow (brilho verde, em inglês).

Um dos rascunhos originais do Projeto Greenglow – Image copyright Divulgação

Evans logo descobriu que poderia convidar engenheiros em universidades britânicas de ponta para colaborar com a pesquisa, e não era apenas curiosidade acadêmica. Como a BAE, todos estavam atrás do novo paradigma da propulsão – asas e turbinas tinham chegado no limite.

Esforços paralelos

Na Nasa (agência espacial americana), o engenheiro aeroespacial Marc Millis começou um projeto paralelo – o programa Breakthrough Physics Propulsion. A Nasa tinha prometido ir além do Sistema Solar em uma geração, mas sabia que foguetes convencionais nunca levariam seus astronautas até lá.

“Se você quiser ir até nossa estrela vizinha mais próxima, e digamos que queira fazer isso em 50 anos, você teria que ir a um décimo da velocidade da luz. Bem, a quantidade de propulsor que precisaria é aproximadamente a massa de todo o Sol. Precisamos de algo completamente diferente”, diz Millis. Como Evans, o conselho a ele foi: “Pense radicalmente, e pense grande.”

Sem aviso prévio, um cientista russo chamado Eugene Podkletnov disse ter encontrado a resposta por acidente. Ainda na década de 1990, ele relatou ter observado um “escudo antigravitacional” ser formado em um objeto suspenso sobre um supercondutor giratório.

Centros de pesquisa pelo mundo, como o Greenglow e a Nasa, embarcaram na onda e tentaram reproduzir a proposta de Podkletnov. Falharam.

Em Dresden, na Alemanha, Martin Tajmar recebeu recursos para tentar toda alternativa possível. O programa espacial alemão estava tão sedento como os EUA por uma revolução nessa área. “A antigravidade é como dizer: ‘Sim, estou tentando fazer o impossível’. Mas fique sempre pronto para uma surpresa”, afirma Tajmar.

Impasse nas pesquisas

Para cientistas como John Ellis, do Cern (Organização Europeia para Pesquisa Nuclear), não foi surpresa quando nada de novo apareceu. “Esse sujeito tinha a ideia que brincando com supercondutores poderia mudar a força do campo gravitacional da Terra? Besteira!”

Martin Tajmar, da Universidade de Dresden: “Tentando fazer o impossível”
Image copyright Divulgação

Novos trabalhos de Podkletnov não atingiram o mesmo sucesso do primeiro, e não faltaram físicos para apontar as razões.

Primeiro de tudo, havia o problema de escala, como Clifford Johnson, da Universidade do Sul da Califórnia, explica.

“Tendemos a pensar na gravidade como muito forte – afinal é o que nos segura à Terra. Mas é a mais fraca das forças que conhecemos na natureza. É, por exemplo, 10 vezes elevado à 40ª potência mais fraca do que o eletromagnetismo – é 1 com 40 zeros na frente.”

Parecia que mesmo se alguém conseguisse manipular a gravidade em laboratório, não havia nada de útil a fazer com ela. Em suma, para alterar a gravidade de um planeta, você precisa da massa de outro planeta.

Luz no fim do túnel

E justamente quando os engenheiros pareciam estar ficando sem ideias, os físicos teóricos jogaram uma boia nesse oceano.

Uma descoberta recente mostrou que o universo não está apenas se expandindo, mas acelerando em sua expansão, e de repente os teóricos tinham coisas a explicar.

Como conta Tamara Davis, da Universidade de Queensland, na Austrália. “Algo está acelerando as galáxias umas das outras. A gravidade parece estar ‘empurrando’.”

Alguns teóricos agora estão desafiando padrões para apresentar explicações radicais. Entre eles está Dragan Hajdukovic, do Cern, que desenvolveu uma teoria que aponta a existência da chamada polaridade gravitacional.

“Até agora acreditamos que a gravidade é apenas uma força de atração. Pode ser que seja também uma força de repulsão, mas não entre matéria e matéria, mas entre matéria e antimatéria.”

Cliff Johnson, da Universidade do Sul da Califórnia: “De todas as forças que conhecemos na natureza, a gravidade é a mais fraca” Image copyright Divulgação

É uma teoria que o Cern se prepara para testar no próximo ano. Se Hajdukovic conseguir provar que partículas de antimatéria caem “para cima”, abrirá a possibilidade para alguma forma de antigravidade demonstrável na Terra – e certamente levaria um prêmio Nobel nessa história.

Mesmo se ele estiver certo, explorar um fenômeno desse em qualquer sentido prático pode estar além de nossa capacidade de engenharia.

Empurrando os limites

Ideias ainda mais ousadas estão agora na mesa. Por exemplo, uma proposta encabeçada por Tajmar é usar um conceito puramente teórico, o de massa negativa.

Teoricamente, quando a massa negativa é aproximada da massa positiva, poderia criar uma força de repulsão potente – uma força de aceleração infinita, ou a dobra espacial, para usar o termo da série de ficção Jornada nas Estrelas.

Johnson, da Universidade do Sul da Califórnia, logo aponta alguns obstáculos teóricos – isso inverteria o modelo aceito de espaço-tempo universal de Einstein e tornaria a física atual um pesadelo.

A objeção de Davis, de Queensland, é mais prática: “É melhor que você não goste das pessoas que você quiser visitar em sua dobra espacial, porque você iria aniquilá-las no processo de chegar até lá.”

Agora que existem teorias de como a antigravidade pode funcionar, são os engenheiros que aparentemente não conseguem meios práticos de tirá-las do papel.

Ron Evans se aposentou quando o Projeto Greenglow finalmente foi encerrado, em 2005, sem nenhuma forma prática de controle da gravidade a oferecer. Mas a história não terminou ali.

Um novo caminho?

Um aparelho sobreviveu, quase sem ser notado, dos dias do Greenglow – um motor de propulsão eletromagnética chamado EM Drive, criado pelo engenheiro aeroespacial britânico Roger Shawyer.

E o que diferencia o EM Drive de outros conceitos? “Não estamos mais tentando controlar a gravidade em si. Estamos vencendo a gravidade da maneira mais esperta.”

Em testes, o EM Drive parece se mover pela sua própria propulsão.

Shawyer diz que seu conceito usa uma propriedade conhecida da energia de microondas chamada “cut-off” para gerar empuxo.

Roger Shawyer e o EM Drive – Image copyright Divulgação

Segundo Shawyer, a forma cônica da caixa fechada faz com que as microondas efetivamente parem em um extremo da cavidade, enquanto continuam a vibrar uma contra as outras, criando uma diferença de pressão.

Com um suprimento de energia solar, Shawyer diz que poderia acelerar o EM Drive em qualquer direção de maneira quase contínua.

“Você de repente teria um motor de elevação, que simplemeste paira ali ou de fato acelera para cima. Então você pode vislumbrar o lançamento de grandes cargas no espaço, controlado por uma espaçonave guiada por um EM Drive.”

Teóricos são céticos sobre essas afirmações, porque o EM Drive parece desafiar a lei de Newton sobre a conservação do momento linear.

“Com o EM Drive, diferentemente de um foguete, nada sai dele. Não sei como você pode gerar movimento de nada”, diz John Ellis, do Cern.

Engenheiros como Ron Evans são mais pragmáticos. “É o experimento que conta. Se funciona, cabe aos téoricos colocar de pé uma teoria que o explique.”

Os testes e os debates continuam. Enquanto isso, a fabricante de aviões Boeing aparentemente já patenteou sua própria versão do EM Drive e o Pentágono demonstrou interesse na tecnologia. Vale ficar de olho.
BBC

Quatro cenários de ‘fim do mundo’ previstos por Stephen Hawking

A humanidade corre o risco de ser extinta graças a perigos criados por ela mesma, segundo o físico britânico Stephen Hawking.

PAHawking já alertou várias vezes para a possibilidade de a própria humanidade desencadear o fim do mundo – Image copyright PA

Hawking foi o convidado deste ano das chamadas Reith Lectures – evento que desde 1948 convida pessoas de projeção pública para uma série anual de palestras transmitida pela emissora de rádio BBC Radio 4.

Segundo o cientista, existem quatro cenários possíveis para um fim do mundo criado pela própria humanidade. E o progresso na ciência e tecnologia criará “novas formas de as coisas darem errado”.

“Apesar de serem baixas as possibilidades de um desastre no planeta Terra em um ano qualquer, isso vai se acumulando com o tempo e se transforma em uma quase certeza para os próximos mil ou dez mil anos”, disse Hawking.[ad name=”Retangulo – Anuncios – Direita”]

Hawking já fez vários alertas antes a respeito dos perigos que a humanidade estava criando.

Veja abaixo os quatro possíveis motivos para um fim do mundo, segundo a opinião do cientista.

1) Inteligência artificial

Foto: Moviestore/Rex/ShutterstockO clássico de Kubrick, ‘2001: Uma Odisseia no Espaço’ já previa um computador com inteligência artificial que saía de controle
Foto: Moviestore/Rex/Shutterstock

Stephen Hawking acredita que os esforços para criar máquinas que pensem sozinhas são uma ameaça à nossa existência.

“O desenvolvimento de uma inteligência artificial total (AI) pode levar ao fim da raça humana”, disse o físico à BBC em 2014.

Segundo ele, as formas primitivas de inteligência artificial desenvolvidas até o momento já provaram ser úteis, mas Hawking teme as consequências de se criar algo que possa se igualar ou até superar os humanos.

“(As máquinas) iriam evoluir sozinhas, refazer o próprio projeto a uma velocidade cada vez maior. Humanos, que são limitados por uma evolução biológica lenta, não poderiam competir e seriam substituídos.”

Hawking não é o único que teme a inteligência artificial. O cinema americano já tratou a questão como uma ameaça em vários filmes como 2001: Uma Odisseia no Espaço (de 1968), Bladerunner (de 1982), a série de filmes O Exterminador do Futuro, entre outros.

2) Guerra nuclear

NasaO poder das armas nucleares aumentou muito desde os primeiros testes na década de 1950 (Foto: Nasa)

Se as máquinas não nos matarem, nós poderemos fazer isso por conta própria.

“O fracasso humano que eu mais gostaria de corrigir é a agressão”, disse Hawking em uma palestra no Museu da Ciência de Londres, em 2015.

“Pode ter sido uma vantagem para a sobrevivência na época dos homens das cavernas, para conseguir mais comida, território ou parceiros para reprodução, mas agora é uma ameaça que pode destruir todos nós.”

As armas de destruição em massa atuais são capazes de acabar com a vida na Terra, e a proliferação dos arsenais nucleares é uma grande preocupação mundial.

“Uma grande guerra mundial significaria o fim da civilização e talvez o fim da raça humana”, disse Hawking.

3) Vírus criado por engenharia genética

AP/ArquivoSegundo Hawking, vírus criados em pequenos laboratórios podem dar grande dor de cabeça futura à humanidade (AP/Arquivo)

E as armas nucleares podem não ser a pior ameaça entre as invenções da humanidade.

Em 2001, Hawking disse ao jornal britânico Daily Telegraph que a raça humana enfrenta a perspectiva de ser exterminada por um vírus criado por ela mesma.

“No longo prazo, fico mais preocupado com a biologia. Armas nucleares precisam de instalações grandes, mas engenharia genética pode ser feita em um pequeno laboratório. Você não consegue regulamentar cada laboratório do mundo. O perigo é que, seja por um acidente ou algo planejado, criemos um vírus que possa nos destruir”, disse o cientista ao jornal.

“Não acho que a raça humana vai sobreviver aos próximos mil anos, a não ser que nos espalhemos pelo espaço. Há muitos acidentes que podem afetar a vida em um único planeta.”

Novamente, temores como esse já foram retratados por Hollywood. Filmes como12 Macacos, Eu Sou A Lenda e a série Resident Evil são apenas alguns dos que mostram um cenário no qual vírus feitos pelos homens destroem a sociedade.

4) Aquecimento global

NasaPara o cientista, se aquecimento global continuar, a Terra corre o risco de ficar parecida com Vênus (Foto: Nasa)

Stephen Hawking descreveu um cenário futurístico apocalíptico no documentário A Última Hora, de 2007.

“Uma das consequências mais graves de nossas ações é o aquecimento global, causado pela emissão de crescentes níveis de dióxido de carbono resultantes da queima de combustíveis fósseis. O perigo é que o aumento da temperatura se transforme em (um processo) autossustentável, se é que já não está assim.”

“Secas e devastação de florestas estão reduzindo a quantidade de CO2 que é reciclada na atmosfera”, afirmou.

“Além disso, o derretimento das calotas polares vai reduzir a quantidade de energia solar refletida de volta para o espaço e assim aumentar ainda mais a temperatura. Não sabemos se o aquecimento global vai parar, mas o pior cenário possível é que a Terra se transforme em um planeta como Vênus, com uma temperatura de 250 graus na superfície e chuvas de ácido sulfúrico.”

“A raça humana não pode sobreviver nestas condições”, acrescentou.
BBC

Energia Eólica

O Wind Dam

Alguns afirmam que a “barragem” é uma fraude porque revela uma total incompreensão dos princípios físicos da dinâmica de fluidos. Segundo estes o que faz funcionar toda e qualquer barragem é a diferença de potencial: diferença de altitude no caso da água; diferença de pressão no caso do vento. Nas velas dos navios a diferença de pressão entre o lado de onde sopra o vento e o lado oposto é diminuta mas, como a área é muito grande, resulta numa força de impulso.

Sendo assim no caso presente a tela apenas aumentará a velocidade do vento, nunca a pressão pelo que o sistema se comportará como um vulgar gerador eólico. De inovador então apenas a forma escultural…

Com a palavra os cientistas Tapuias. E o povão que é hábil em sobreviver com os bolsos cheios de vento, e de viver de brisa.

Ah!, não esquecer um certo pessoal em Brasília especialistas em inflar orçamentos.

Tecnologia Energia Eólica Wind Dam 01

A ilustração lembra uma vela de navio enfunada pelo vento.
É o Wind Dam, uma enorme tela estendida entre duas margens de um canyon no lago Lagoda, na Rússia.

Tecnologia Energia Eólica Wind Dam 02

A ideia é do arquiteto Laurie Chetwood, que em tempos de buscas por novas soluções para geração de energia, projeta essa verdadeira barragem eólica que recebe e direciona o vento para uma turbina.

Tecnologia Energia Eólica Wind Dam 03

O polêmico sistema — incomoda particularmente aos ambientalistas pela possibilidade de prejudicar a migração das aves — é composto por uma tela de 25 metros de altura e 75 de largura suspensa por cabos que canalizam o vento para uma abertura central ligada a uma turbina acoplada, igualmente suspensa.

Os estudos efetuados apontam a forma côncava como a mais eficaz na captura do vento. A semelhança com a forma de uma barragem hidrelétrica levou a que o projeto fosse apelidado de wind(vento) dam(barragem), ou barragem de vento.

Tecnologia Energia Eólica Wind Dam 04

 


[ad name=”Retangulo – Anuncios – Duplo”]

Laboratório mais moderno do mundo custa menos do que um estádio de futebol

Laboratório Nacional de Luz Síncrotron Blog do MesquitaO primeiro laboratório nacional com tecnologia mais moderna do mundo assusta pelo valor, mas vai custar menos que um estádio de futebol.

Para atender às especificidades internacionais, o projeto do Laboratório Nacional de Luz Síncrotron está orçado em 650 milhões de reais. Ou seja, menos que um estádio de futebol.

Para a dirigente da Sociedade Brasileira para o Progresso da Ciência (SBPC), Helena Nader, é a ciência a chave para o desenvolvimento do Brasil.

Reunidos em Recife na semana passada, durante o 63º encontro da SBPC, pesquisadores brasileiros discutiram como fazer a ciência avançar no país, . Helena Nader, bióloga, cientista há mais de 30 anos e presidente da instituição desde 2011, não quer tirar recursos dos esportes – só quer que a ciência seja tratada da mesma forma.

Em entrevista por telefone, Nader disse que educação básica no Brasil é “muito ruim”, mas que, na universidade, o país forma pesquisadores competitivos, que quase nunca retornam ao país depois de uma temporada de estudos no exterior.

Qual a maior preocupação da sociedade científica no Brasil de hoje?

Helena Nader: É a legislação vigente hoje para a ciência. Nós estamos sob a égide de uma lei que não é voltada para a ciência: é uma lei geral, voltada para compras no sistema público. Para se comprar qualquer equipamento, ou reagentes, é necessário fazer pregão, diversas licitações… E às vezes é preciso comprar um equipamento para uma determinada pesquisa. São legislações que estão travando e burocratizando toda a ciência brasileira. É o maior entrave na vida do pesquisador.[ad#Retangulo – Anuncios – Direita]

Nós temos problemas no sistema de importação – as importações acabam levando meses, em alguns casos até um ano. Eu até comento que acho que é fantástico o que o Brasil já conseguiu fazer na ciência apesar de todo o esforço para o país não andar para frente (risos).

Na opinião da senhora, o Brasil tem condições de formar bons pesquisadores?

Para formação o Brasil está muito bem. Tanto que a grande maioria dos nossos estudantes que vão para fora do país – seja durante a graduação, na pós ou no doutorado –, é convidada a permanecer. Isso acontece, provavelmente, por causa do funil da seleção para se entrar na universidade brasileira.

Apesar da expansão da universidade pública no Brasil e do financiamento para estudo em universidades privadas, o número de brasileiros que chega às universidades é pequeno. A gente tem uma forte seleção e aqueles que entram são altamente competitivos.

A ciência no Brasil também está sendo feita em institutos de pesquisa ligados a diversos ministérios, como no Inmetro. O que nós não temos estruturado ainda como uma norma no país é a investigação no setor produtivo, nas empresas.

Claro que existem exceções, como a Petrobras, que desenvolveu toda a tecnologia de exploração do Pré-Sal, a Embraer, que investe em doutores e pós doutores para fabricar aviões reconhecidos no mundo.

Mas ainda não existe uma cultura de se fazer pesquisa na indústria. Mas está acontecendo uma tentativa de se reverter esse quadro.
Nádia Pontes (DW Brasil)/Tribuna da Imprensa

A 3ª revolução industrial

A terceira revolução industrial,comandada pela nanotecnologia, já mostra a que veio. A nanotecnologia — também conhecida como Nanotech é o estudo de manipulação da matéria numa escala atômica e molecular.

Geralmente lida com estruturas com medidas entre 1 a 100 nanômetros (um nanômetro é a bilionésima parte de um metro) em ao menos uma dimensão, e incluí o desenvolvimento de materiais ou componentes, e está associada a diversas áreas.

Da medicina a eletrônica, da ciência da computação a física, e ainda na química, biologia e engenharia dos materiais, a nanotecnologia vai alterar todos os processos de produção até hoje usados principalmente na indústria.

O princípio básico da nanotecnologia é a construção de estruturas e novos materiais a partir dos átomos (os tijolos básicos da natureza).
Além das indústrias as novas tecnologias terão impacto na vida comum das pessoas. Essas transformações serão abrangentes, alcançando também as empresas comerciais, e as prestadoras de serviços.
Essa nova revolução é causa e conseqüência da globalização.

O Editor


Da última vez em que o economista americano Jeremy Rifkin ficou badalado na imprensa mundial, foi apresentado como “inimigo da ciência”. (As aspas são da revista “Time”.) Na virada do século, a briga dele era contra transgênicos. Hoje, ele é um dos principais estrategistas da política energética da União Europeia. Em seu novo livro, propõe uma ideia radical: o mundo está a poucos passos de iniciar uma nova revolução industrial. A internet está no centro dela. Mas ainda falta um detalhe para o processo se concretizar.

O livro se chama “The Third Industrial Revolution” – A terceira revolução industrial. Segundo Rifkin, revoluções industriais ocorrem a partir do encontro de duas inovações tecnológicas. Uma é uma nova ferramenta de comunicação. A outra, uma solução energética mais eficiente do que o que havia antes. O resultado deste encontro é uma mudança profunda na economia, na sociedade, na política.[ad#Retangulo – Anuncios – Direita]

A primeira ocorreu no século XIX.

Energia a vapor começou a mover gente mais rápido por navios e trens. E a impressão usando linotipo e rotativas permitiu a publicação mais rápida de jornais, livros, revistas. Comida fresca e outros produtos começaram a chegar mais rápido. Nasceram as escolas públicas e o estado de bem estar social. Repentinamente, era possível ao Estado botar um livro na mão de cada aluno.

A segunda é do século XX.

Rádio e televisão de um lado, energia elétrica distribuída e motor a combustão do outro. Unidas, estas inovações criaram o mercado de amplo consumo e, com isso, países de classe média no Primeiro Mundo. Ficou incrivelmente mais barato distribuir produtos por todo canto, assim como a produção barateou.

Revoluções industriais têm algumas características em comum, diz Rifkin. Uma delas é o controle sobre tempo e espaço. Fica mais fácil e rápido levar gente ou coisas a lugares. Assim como fica mais fácil circular ideias. O resultado destes fenômenos é que as sociedades ficam complexas e sofisticam seus processos de inovação.

No caso das duas primeiras revoluções industriais, ele continua, há outras características comuns. Foram centralizadoras e não é difícil entender o porquê. É que custaram caro. O tipo de infraestrutura exigida saiu por uma fortuna em ambos os casos. Eram caros os trens como eram caras as rotativas. E ainda mais caro saíram as redes de energia elétrica e as emissoras de TV.

Os complexos industriais nascidos neste contexto se concentraram em algumas regiões para ter acesso à infraestrutura. Exigiram bancos grandes e fortes para seu financiamento. Assim como foi necessário um aparato militar de peso para garantir acesso a energia – seja no desenvolvimento da nuclear, seja no fornecimento do petróleo. E, com tanta concentração de poder na indústria, no setor financeiro e nas forças armadas, não surpreende que um governo central forte também tenha acompanhado o processo.

Onde atingiram seu potencial máximo, as duas revoluções industriais geraram riqueza. Mas há um limite. Agora, segundo o economista, a segunda, ancorada pesadamente em combustíveis fósseis, está entrando em colapso. Conforme a indústria neste modelo se espalha por todo o mundo e novas sociedades enriquecem, limites são atingidos mais e mais rápido. Entra em crise o setor financeiro, entram em crise a política, os governos. E o planeta.

A nova tecnologia de comunicação já está aí.

Ela é diferente de todas as anteriores: não é centralizada, é distribuída. Hoje, dois bilhões de pessoas em todo o mundo têm acesso a publicar vídeos, fotos e textos simultaneamente na rede. É verdade que há cinco bilhões de excluídos. Mas dois bilhões é mais do que jamais foi possível. Um número inimaginável alcançado em apenas 15 anos.

Falta, evidentemente, uma nova solução energética. Não é um problema simples de resolver mas, se o economista estiver certo, ele será resolvido nos próximos anos e décadas. Parece muito. Perante a História, é pouco. E o mundo mudará radicalmente. Na União Europeia, já seguem sua cartilha investindo no futuro enquanto o passado entra em colapso.

Pedro Dória/Estadão

Tecnologia: países sul-americanos vão construir laboratório subterrâneo nos Andes

Parceria de países sul-americanos vai construir laboratório subterrâneo nos Andes

O chamado projeto Andes envolve cientistas de Argentina, Brasil, Chile e México e custará custará US$ 15 milhões

Um grupo de cientistas vai estudar os segredos do universo em um laboratório subterrâneo de física de partículas que será instalado em um túnel na cordilheira do Andes em uma região entre a Argentina e o Chile.

O projeto Andes envolve cientistas de Argentina, Brasil, Chile e México que receberam o apoio de colegas americanos e europeus em troca da cooperação no estudo da “matéria escura”, os neutrinos e outras partículas subatômicas, explicou o coordenador da iniciativa, o físico franco-argentino Xavier Bertou.

Também “há grande interesse” em usar o laboratório para estudos de impacto dos raios cósmicos sobre o envelhecimento celular, de geofísica – para criar uma rede de sismógrafos entre a Argentina e o Chile – e de meio ambiente, com base em medições de baixíssima radioatividade, explicou o cientista.

A construção do laboratório custará US$ 15 milhões, “o equivalente a 2%” do custo do túnel rodoviário Água Negra, que unirá a cidade de Iglesia, na província argentina San Juan, à chilena de Vicuña.

O túnel que começará a ser construído no ano que vem, terá 14 quilômetros de extensão e um laboratório que será instalado a mais de 1.500 metros abaixo da superfície.

Segundo o site do projeto, em uma caverna principal serão feitos dois ou três experimentos maiores, enquanto uma cavidade secundária abrigará três ou quatro andares destinados a estudos variados, cortados por túneis de acesso que ocuparão 2.500 metros quadrados da superfície subterrânea.[ad#Retangulo – Anuncios – Direita]

Possivelmente será construída uma terceira caverna em forma de poço, com 15 a 20 metros de diâmetro e 20 de profundidade para experimentos maiores, informou.

Bertou afirmou ainda que falta pelo menos US$ 5 milhões para equipar o laboratório para estudos de física de partículas. Segundo ele, “grande parte” desses estudos só pode ser feita em locais abaixo de rochas que protegem da interferência dos raios cósmicos (que produzem os neutrinos).

Saiba mais

Saiba mais sobre o projeto
Partícula viaja mais rápido que a luz
Cientistas debatem descoberta na Suíça

Os neutrinos são partículas subatômicas que atravessam a Terra em uma velocidade de bilhões de quilômetros por segundo, e entender seu comportamento “é fundamental” para o estudo da física, acrescentou Bertou.

Os cientistas acreditam que 85% da matéria do universo é composta por “matéria escura”, cujas características são totalmente desconhecidas.

O coordenador do projeto Andes ressaltou que atualmente há mais de dez laboratórios subterrâneos no hemisfério norte, entre eles o italiano Grande Sasso, onde foram medidos os neutrinos que, aparentemente, “são mais rápidos que a luz”.

O laboratório localizado no hemisfério sul permitirá que sejam feitos estudos cruzados dos neutrinos. “Devido ao movimento da Terra, alguns estudos ganhariam muito se fossem feitos nos dois hemisférios para que os eventos extrassolares possam ser triangulados”, disse Bertou.

O projeto Andes tem o potencial de incentivar a criação de empresas de alta tecnologia, como aconteceu nas regiões próximas aos laboratórios na Europa, disseram os cientistas.

Efe -Agencia Estado

Brasil já tem tecnologia para desenvolver bomba atômica

Tupiniquins pegai vossas bordunas que a coisa tá prometendo.

Não sei como é que fica essa estória aí, uma vez que o  Brasil assinou um acordo de não proliferação de armas nucleares. Nunca antes na história “destepaiz” houve algum início de que vai rompê-lo.

Pode ser que isso, a notícia abaixo, seja somente mais uma jogada de marketing político pra “cutucar” o doidivanas do Caribe. O Chávez, que anda perambulando lá pras bandas do Irã, gêmeos nos desvairados?, anda espalhando que a Venezuela tem tecnologia pra desenvolver artefatos nucleares. Dizem os gaiatos de plantão que tal artefato venezuelano é um prato de feijão com ovos e repolho. Outros, que para destruir qualquer país é só exportar os políticos brasileiro. Isso sim é que é uma bomba de alto poder destrutivo.

Já Zé Bêdêu, o derradeiro abestado crédulo da Praça do Ferreira, em Fortaleza, com a candura de um buldog, sugere que o teste da bomba seja feito em Brasilia. Preferencialmente sobre o congresso em dia de sessão.

“Ô raça”!

PS. Se o documento é sigiloso como é que foi parar na boca do povo?

O editor

Uma revolucionária tese de doutorado produzida no Instituto Militar de Engenharia (IME) do Exército – Simulação numérica de detonações termonucleares em meios Híbridos de fissão-fusão implodidos pela radiação – pelo físico Dalton Ellery Girão Barroso, confirma que o Brasil já tem conhecimento e tecnologia para, se quiser, desenvolver a bomba atômica. “Não precisa fazer a bomba. Basta mostrar que sabe”, disse o físico.

Mantida atualmente sob sigilo no IME, a pesquisa foi publicada num livro e sua divulgação provocou um estrondoso choque entre o governo brasileiro e a Agência Internacional de Energia Atômica (AEIA), responsável pela fiscalização de artefatos nucleares no mundo inteiro.

O pesquisador desenvolveu cálculos e equações que permitiram interpretar os modelos físicos e matemáticos de uma ogiva nuclear americana, a W-87, cujas informações eram cobertas de sigilo, mas vazaram acidentalmente.

Barroso publicou o grosso dos resultados da tese no livro A Física dos explosivos nucleares (Editora Livraria da Física, 439 páginas), despertando a reação da AIEA e, como subproduto, um conflito de posições entre os ministros Nelson Jobim, da Defesa, e Celso Amorim, das Relações Exteriores.

A crise vinha sendo mantida em segredo pelo governo e pela diplomacia brasileira.

A AIEA chegou a levantar a hipótese de que os dados revelados no livro eram secretos e só poderiam ter sido desenvolvidos em experimentos de laboratório, deixando transparecer outra suspeita que, se fosse verdade, seria mais inquietante: o Brasil estaria avançando suas pesquisas em direção à bomba atômica.

A AIEA também usou como pretexto um velho argumento das superpotências: a divulgação de equações e fórmulas secretas, restritas aos países que desenvolvem artefatos para aumentar os arsenais nucleares, poderia servir ao terrorismo internacional.

Os argumentos e a intromissão da AIEA nas atividades acadêmicas de uma entidade subordinada ao Exército geraram forte insatisfação da área militar e o assunto acabou sendo levado ao ministro da Defesa, Nelson Jobim.

No final de abril, depois de fazer uma palestra sobre estratégia de defesa no Instituto Rio Branco, no Rio, Jobim ouviu as ponderações do ministro Santiago Irazabal Mourão, chefe da Divisão de Desarmamento e Tecnologias Sensíveis do MRE, numa conversa assistida pelos embaixadores Roberto Jaguaribe e Marcos Vinicius Pinta Gama. A crise estava em ebulição.

Jobim deixou o local com o texto de um documento sigiloso entitulado Programa Nuclear Brasileiro – Caso Dalton, entregue pelo próprio Mourão. Mandou seus assessores militares apurarem e, no final, rechaçou as suspeitas levantadas, vetou o acesso da AIEA à pesquisa e saiu em defesa do pesquisador.

Num documento com o carimbo de secreto, chamado de Aviso 325, ao qual o Jornal do Brasil teve acesso, encaminhado a Celso Amorim no final de maio, Jobim dispara contra a entidade.

“A simples possibilidade de publicação da obra no Brasil e sua livre circulação são evidência eloquente da inexistência de programa nuclear não autorizado no País, o que, se fosse verdade, implicaria em medidas incontornáveis de segurança e sigilo”, criticou o ministro no documento.

De Vasconcelo Quadros – Portal Terra