domingo, 31 de maio de 2015

Notícia - A parede infinita




Multitoque, interactiva e escalável
Imagine uma parede com a qual pode interagir. Um touchscreen gigante? Sim, mas não só. Principalmente, porque o dispositivo é capaz de reconhecer e individualizar vários utilizadores diferentes e seguir os seus movimentos.

Quem já viu séries televisivas como CSI e observou os investigadores a trabalharem em ecrãs nas pesquisas científicas pode imaginar (mas só imaginar!) o que é a SenseWall, uma “parede interactiva” que permite conceber, a baixo custo, ambientes multissensoriais de grandes dimensões para inúmeras áreas, da educação ao turismo, aos serviços e à gestão da mobilidade nos grandes centros urbanos.

Reunidas numerosas ferramentas informáticas dispersas, uma equipa de investigadores da Universidade de Coimbra desenvolveu uma nova tecnologia que permite realizar diversas interacções simultâneas no mesmo ecrã. Outra novidade é que, com esta tecnologia, é possível desenhar grandes espaços, como a parede de um edifício público, mas até à imensidão. Vamos dar um exemplo: há uma reunião de negócios muito importante e não se conhece o interlocutor. Ao chegar à empresa, tem uma “parede” onde pode aceder à fotografia da pessoa com quem vai reunir, que tipo de funções desempenha na empresa, prémios que ganhou na carreira, lugares que ocupou. Poderá haver mesmo um guia virtual que conduz ao gabinete do interlocutor.

Claro que isto pode ser transposto para um aeroporto, por exemplo, onde numa parede se “escreve” o número do voo e se obtém toda a informação e indicações até estar dentro do avião, isto enquanto outros passageiros procuram a ementa ou a sua localização.

Depois desta explicação para os mais leigos, ficam as informações do coordenador do projecto, o professor Mário Zenha Rela, que apoiou o desenvolvimento do trabalho enquanto director do Laboratório de Informática e Sistemas do Instituto Pedro Nunes. O projecto nasceu de uma colaboração entre esta instituição e o Departamento de Engenharia Informática da Universidade de Coimbra (DEIUC), e da equipa de investigadores fazem parte Miguel Antunes, Tiago Serra e Tony Gonçalves, responsáveis pela idealização, pelo planeamento e pela execução completa do projecto.

Aplicações pedagógicas
A génese da SenseWall está intimamente ligada à actual necessidade de inovação no ensino e na pedagogia das áreas tecnológicas, nomeadamente no ensino universitário tecnológico em Portugal. A sua concepção partiu não só deste princípio mas também de um desejo íntimo da equipa que a idealizou (antigos alunos do DEIUC), que desejaria ter tido acesso a uma plataforma semelhante enquanto estudava. De facto, esta nova tecnologia tornou-se já uma ferramenta indispensável em cadeiras de interacção, design e multimédia, estando logo no seu primeiro ano de vida a servir como suporte para os programas curriculares destas disciplinas.

“A aceitação por parte de alunos e professores foi imediata, existindo já cerca de meia centena de aplicações disponíveis, desenvolvidas pelos alunos”, conta Rela, afiançando que “esta tecnologia serve o propósito de estimular a criatividade da comunidade académica na concepção de aplicações inovadoras e mais focadas nas pessoas: serve como ferramenta de investigação e para ensinar os alunos a utilizar estes novos métodos de interacção com os computadores, que ultrapassam largamente as capacidades do habitual rato-e-teclado”.

Apesar de ser uma ferramenta criada por e para o DEI, está já disponível publicamente e o seu acesso é facilitado para que toda a comunidade universitária de Coimbra possa usufruir das suas funcionalidades.

Outra característica importante desta nova solução tecnológica é a sua “flexibilidade”, como afirmam Antunes, Serra e Gonçalves: “Ver a nossa sombra ganhar vida, de repente, num processo de interacção em tempo real impressionante, voar pelo globo terrestre, mergulhando no Google Earth, manipular conteúdos multimédia ou mesmo criar música e murais são alguns dos exemplos disponíveis nesta enorme ‘parede’ tecnológica.”

A SenseWall integra variados sensores e canais de comunicação, diversificando, por isso, o tipo de interacção disponibilizada. O método mais imediato e intuitivo é, naturalmente, a sua sensibilidade ao toque. Possuindo um ecrã multitoque, a SenseWall permite a interacção de um número virtualmente ilimitado de utilizadores em simultâneo, estando o seu número apenas limitado pelo espaço físico disponível. E, como já foi referido, a tecnologia é, teoricamente, escalável até ao infinito. O entusiasmo é tal que a equipa já está a idealizar um projecto para a construção de um exemplar com algumas dezenas de metros de comprimento. “Pretendemos procurar os parceiros correctos para fazer deste projecto uma realidade em breve”, afirmam os responsáveis.

Ao vivo e em tempo real
Além desta interface, a SenseWall possui ainda a capacidade de captura de som e vídeo em tempo real, disponibiliza sensores de comunicação Bluetooth, RFID (identificação por radiofrequência) e WiFi e ainda um sensor de movimento tridimensional que permite captar e interpretar gestos e movimentos das pes­soas que a utilizam.

Para Mário Zenha Rela, a “maior mais-valia da SenseWall é, sem dúvida, o impacto junto do público”: “As suas dimensões e capacidades de interacção por toque e gestos apresentam um potencial enorme na capacidade de divulgação de informação e comunicação ao vivo e em tempo real. Com estas capacidades em mente, é imediatamente possível imaginar a SenseWall como meio de difusão de informação, marketing e publicidade interactiva.”

“O maior avanço realmente alcançado é a transposição de formatos de tamanhos reduzidos para os grandes formatos”, explica ainda o cientista, considerando que “esta é a sua verdadeira vantagem competitiva, já que, conceptualmente, permite a construção de paredes contínuas enormes sem grande dificuldade”.

A capacidade de usar vários métodos de interacção, além do toque, torna-a um meio de exposição aliciante, em particular a capacidade de interpretação de gestos e movimentos. Assim, é fácil imaginá-la a ser utilizada em grandes museus para permitir visitas interactivas a partes do espólio que não seja possível expor ao vivo, por motivos de dimensão ou preservação, ou para ver e interagir com ambientes de realidade virtual ou realidade aumentada, ou até em reconstruções de artefactos e espaços históricos. Um exemplo óbvio: os túmulos dos faraós do Egipto, como o de Tutankamon, que vão ser encerradas para evitar a sua deterioração, devido à respiração dos turistas. No caso de Luxor, a 700 quilómetros do Cairo, alguns túmulos serão substituídos por réplicas que poderão ser visitadas pelos turistas, à semelhança do que já se fez com as grutas de Altamira (Espanha). A tecnologia criada em Portugal pode ser utilizada para a “recriação” destes túmulos e espaços fechados, dando aos turistas a possibilidade de continuar a vê-los, já que, após o encerramento, só os especialistas em arqueologia poderão visitar as sepulturas originais.

Imaginando outras vertentes de aplicação, pode também servir propósitos publicitários em áreas de grande afluência, como espaços comerciais, ou até ser utilizada como ponto de difusão de informação pública localizada, em estádios e aeroportos, por exemplo. Os usos potenciais da SenseWall enquanto meio de divulgação e comunicação são inúmeros.

O jogo da vida
A tecnologia está pronta para ser comercializada e deu origem a uma spin-off universitária, a SenseBloom, que já começou a procurar clientes. Quem até agora mostrou maior interesse na SenseWall, segundo Rela, “foram justamente as empresas com maior visibilidade e exposição ao público, uma vez que reconhecem as suas capacidades em termos de impacto e transmissão de informação; ou seja, são empresas que pretendem causar grande impacto no seu público-alvo e que querem passar uma mensagem forte e marcante”.

Do projecto que levou à concretização da SenseWall resultaram mais dois produtos: o TouchBloom, uma superfície multitoque transportável criada para a Microsoft Portugal, que a utilizou para a demonstração do Windows 7, e o Puddle of Life, um jogo interactivo sobre a teoria da evolução, desenvolvido para o Museu da Ciência da Universidade de Coimbra.

Trata-se de uma “mesa” circular (um cilindro em aço) cujo tampo redondo é um ecrã multitoque onde decorre o jogo. Parece, em tudo, um aquário, pois os seres jogáveis são redondos, com diferentes características para sobreviver. “Nada melhor do que vê-la em acção”, refere Rela, entusiasmado. “Note em particular, aos dois minutos, quando a mesa começa a saber distinguir cada um dos seis miúdos!...” E acrescenta, rindo: “O jogo, supostamente, é para jovens dos 12 aos 15 anos, mas vimos professores doutores bem séniores entretidos longas horas a jogar, para avaliar se a lei da selecção estava correctamente implementada. O jogo passou no exame…”

Mário Zenha Rela defende que a SenseWall é “um grande contributo para a generalização do acesso a novas formas de interacção, uma das mais promissoras áreas da ciência de computação, pelo impacto que pode ter na vida quotidiana”. Se quer ver uma aplicação a funcionar, já sabe: está no Museu da Ciência de Coimbra. Vá com tempo!

M.M.
SUPER 155 - Março 2011

Vídeo - Semelhanças entre português e espanhol

Conteúdo - Índice de Risco de Incêndio (FWI)


O Instituto utiliza o índice meteorológico de risco de incêndio do sistema canadiano FWI (Fire Weather Index).
O Índice meteorológico de risco de incêndio FWI foi desenvolvido pelo Serviço Canadiano de Florestas e é utilizado por vários países do mundo, em particular na Europa. Através da utilização deste índice é possível estimar um risco de incêndio a partir do estado dos diversos combustíveis presentes no solo florestal, estando esse determinado indiretamente através das observações de elementos meteorológicos.

Para o cálculo do índice de risco de incêndio do sistema canadiano FWI, entra-se em consideração com os valores observados, Às 12 UTC, da temperatura do ar, da humidade relativa, da velocidade do vento e da quantidade de precipitação ocorrida nas últimas 24 horas (12-12 UTC). Sendo o FWI um índice cumulativo, significa que o valor do índice no dia reflete tanto as condições observadas nesse mesmo dia, como a sua evolução ao longo do tempo desde a data de início do cálculo do índice.

O índice FWI é composto por 6 sub-índices que são calculados com base nos valores dos elementos meteorológicos q avaliam diferentes estados possíveis do solo. O índice final FWI é então distribuído segundo a escala distrital de risco de incêndio por um conjunto de cinco classes de risco: Reduzido, Moderado, Elevado, Muito Elevado e Máximo, que correspondem à escala utilizada durante a época de Verão dos incêndios florestais, entre 15 de Maio e 14 de Outubro. 

Desde 2002 que o índice FWI é calculado diariamente pelo Instituto de Meteorologia sem interrupções ao longo do ano, com utilização operacional nas ações de prevenção e combate dos incêndios florestais, inclusive na época de Inverno, onde passou a utilizar-se uma nova escala, também à escala distrital, com redução a três níveis: Baixo, Médio e Alto.

Componentes do Índice FWI
FMC (Índice de Humidade dos Combustíveis Finos) – Este índice, classifica os combustíveis finos mortos, de secagem rápida, quanto ao seu conteúdo em humidade. Corresponde assim ao grau de inflamabilidade destes combustíveis, que se encontram à superfície do solo. O conteúdo de humidade destes combustíveis às 12 UTC de um determinado dia, depende do conteúdo de humidade à mesma hora, do dia anterior, da precipitação (mm) ocorrida em 24 horas (12-12 UTC) e da temperatura (ºC) e da humidade relativa do ar (%) às 12 UTC do próprio dia. A intensidade do vento influência apenas na velocidade de secagem destes materiais.

ISI (Índice de Propagação Inicial) - Este índice de propagação inicial do fogo, depende do sub-índice FFMC e da intensidade do vento (Km/h) às 12 UTC.

BUI (Índice de Combustível Disponível) - O índice de combustível disponível, é um factor de avaliação dos vegetais que podem alimentar um fogo (combustíveis "pesados" que se encontram no solo) e é calculado a partir de dois dos sub-índices: DMC e DC.
DC (Índice de Húmus) - Este índice traduz o conteúdo de humidade do húmus e materiais lenhosos de tamanho médio que se encontram abaixo da superfície do solo até cerca de 8 cm. O índice de húmus é calculado a partir da precipitação ocorrida em 24 horas (12-12 UTC), da temperatura e humidade relativa do ar às 12 UTC e do índice de húmus da véspera.
DMC (Índice de Seca) - Este índice é um bom indicador dos efeitos da seca sazonal nos combustíveis florestais (húmus e materiais lenhosos de maiores dimensões), que se encontram abaixo da superfície do solo, entre 8 e 20 cm de profundidade. O índice de seca é obtido a partir da precipitação ocorrida em 24 horas, da temperatura às 12 UTC e do índice de seca verificado na véspera.
FWI (Índice Meteorológico de Risco de Incêndio) - Este é o índice final do sistema Canadiano, sendo calculado em função dos seus sub-índices ISI e BUI.

Powerpoint - Vacinação


Download 1 - Dropbox
Download 2 - Mega
Download 3 - Google Drive
Download 4 - Box



Vídeo - Civilização Assíria

sábado, 30 de maio de 2015

Vídeo - Um derrame (cerebral) de lucidez

Vídeo - Numero 23 - o filme

1ºAno - Estudo do Meio - Ficha de Trabalho - Alimentos


Download 1 - Dropbox
Download 2 - Mega
Download 3 - Google Drive
Download 4 - Box

Vídeo - Sistema respiratório

Notícia - Investigadores de Coimbra aplicam técnicas da física ao estudo de obras de arte do século XVI

Investigadores da Universidade de Coimbra estão a aplicar técnicas da física ao estudo de obras de arte do século XVI, permitindo caracterizar a obra dos autores estudados, informou hoje a Faculdade de Ciências e Tecnologia (FCTUC).

Segundo uma nota divulgada pela FCTUC, uma equipa multidisciplinar liderada pelo físico Francisco Gil desenvolveu o projecto de investigação, que incidiu sobre obras de arte do século XVI, nomeadamente trabalhos dos Mestres de Ferreirim e da oficina de João de Ruão.

Integrando físicos, químicos, geólogos e historiadores da arte da Universidade de Coimbra e especialistas em conservação e restauro do Museu Nacional Machado de Castro, a equipa estudou cinco esculturas em pedra de Ançã de João de Ruão, preparando-se para analisar uma sexta, e oito painéis em madeira pintada da autoria dos mestres de Ferreirim, disse hoje à agência Lusa Francisco Gil.

"Através de técnicas como espectroscopia Raman (que, em poucos segundos, fornece informação química do material) e difracção de raio X pelo método de pó (esta última aplicada pela primeira vez ao estudo de obras de arte, usando amostras micrométricas) os investigadores analisaram, caracterizaram e compararam a obra das duas oficinas de artistas, ao longo dos últimos quatro anos", lê-se na nota da FCTUC.

Segundo o coordenador do projecto, este representa "um contributo importante para a evolução da história da arte".

"Permite mostrar - explicou - a riqueza que se vivia na época, a qualidade dos materiais, o gosto e o nível de vida dos artistas. João de Ruão usava por excelência ouro, vermelhão e lápis-lazúli, enquanto os mestres de Ferreirim utilizavam materiais mais pobres".

O estudo "poderá servir para descobrir a origem dos materiais, porque se trata da época áurea pós-Descobrimentos, em que os materiais podem ser originários de África, Índia ou Brasil", refere, no texto, o professor do Departamento de Física da FCTUC.

No âmbito do projecto foram analisadas outras variáveis, nomeadamente os produtos e factores de degradação ao longo dos séculos das obras de arte destes dois grupos de criadores, assinala a mesma nota.

Em declarações hoje à Lusa, Francisco Gil frisou que este trabalho é importante para a caracterização da obra dos autores, permitindo esclarecer dúvidas em termos de autoria, e também para intervenções de conservação e restauro.

Os investigadores vão agora iniciar o estudo das obras escultóricas do mestre Pêro, artista do Século XIV, em particular os túmulos da Rainha Santa Isabel e da sua neta Isabel para, posteriormente, estabelecer a ligação aos túmulos da família da rainha, em Aragão.

Este projecto será desenvolvido em parceria com as Universidades da Beira Interior, de Barcelona e de Florença, adianta a nota da FCTUC.

sexta-feira, 29 de maio de 2015

Notícia - Inteligência nacional


Sistemas para os carros do futuro, made in ISEL
Num discreto laboratório no ISEL, trabalham investigadores portugueses em projectos relacionados com a circulação automóvel. Com acordos firmados com empresas bem conhecidas, é o exemplo de que a inteligência portuguesa está na vanguarda.

Brisa, EDP, REN, Galp, EMEL, Refer, PT e SIEV são algumas das empresas com as quais o Laboratório de Investigação e Desenvolvimento do ISEL tem acordos firmados para o desenvolvimento de novas tecnologias. A Brisa apoiou a inauguração do laboratório, em 2008, e é o seu parceiro mais activo. Parte das tecnologias em desenvolvimento está relacionada com a circulação automóvel, nas suas mais variadas vertentes: do controlo de tráfego ao estacionamento e chegando mesmo à comunicação entre carros, a chamada rede car-to-x, uma área de vanguarda a nível internacional, na qual o ISEL aposta fortemente.

A força de trabalho, neste caso da inteligência, é constituída por alunos bolseiros, ex-alunos, investigadores a tempo inteiro e também professores. As licenciaturas de proveniência são essencialmente as telecomunicações e a informática, bem como os mestrados em redes e multimédia. No total, são dez pessoas que integram seis grupos de trabalho. Cada um destes seis grupos de trabalho é liderado por um professor, e um sétimo professor coordena todos os grupos. Trabalho… não falta!

Tudo começou com a Via Verde
O início do trabalho de investigação dos fundadores deste laboratório começou em 2002, quando foram desenvolvidas, já em parceria com a Brisa, as primeiras versões da Via Verde. Tratou-se de uma enorme conquista para o ISEL, que levou ao estabelecimento de uma norma portuguesa para este tipo de comunicação. Hoje, o laboratório desenvolve a terceira geração da Via Verde, numa norma que entretanto se internacionalizou para que se atinja o ambicioso objectivo de se tornar num sistema que possa funcionar em todos os países.

Outra área que envolve a Brisa é a da classificação de veículos, a eterna questão de definir qual a classe de cada carro quando passa na portagem. Está a ser estudada uma solução com base em sonar que tem duas vantagens fulcrais: é mais fiável e dez vezes mais barata do que o sistema actual. O aparelho de sonar estaria colocado no topo do pórtico da portagem, e a reflexão mais rápida ou mais lenta do seu sinal, quando incidisse no veículo, determinaria a sua classe. Outra hipótese em consideração, para o mesmo problema, é a utilização de feixes laser, uma tecnologia que o ISEL até já desenvolveu para um cliente norte-americano, mas que tem a desvantagem de ser menos fiável em condições meteorológicas difíceis, nomeadamente com nevoeiro. Esta solução define um perfil físico do automóvel e pode chegar mesmo a identificar a marca e modelo.

Reconhecimento de matrículas
Em conjunto com a Galp, o ISEL desenvolve um sistema de reconhecimento de matrículas, com base em câmaras de vídeo. Utilizando as infra-estruturas de segurança já instaladas nas áreas de serviço, é possível alistá-las para a luta contra a fraude. A ideia é relativamente simples: um automóvel que abasteça de combustível e saia da área de serviço sem pagar fica com a matrícula registada no sistema. Quando um veículo com a mesma matrícula voltar a entrar em qualquer outra área de serviço, as câmaras de vídeo detectam a matrícula, comparam-na com a lista das matrículas que cometeram fraudes e bloqueiam a bomba junto à qual o veículo parar, deixando-a imediatamente em pré-pagamento. Nem será necessário a intervenção de um funcionário para esta sucessão de acontecimentos ocorrer. O grande problema deste sistema é a sua compatibilidade com a lei de protecção de dados. Mas as suas potencialidades vão até uma eventual ligação com a Polícia, para denúncia automática da fraude de não pagamento do combustível e até para a detecção de matrículas falsas, pois o sistema “observa” sempre a matrícula e o automóvel a que está afixada. Claro que tudo isto obriga a uma coordenação próxima com o Ministério da Adminstração Interna.

Carros que “falam”
O projecto que, neste momento, mais puxa pela imaginação dos investigadores é o chamado car-to-x. Trata-se de um princípio de comunicação local entre automóveis em circulação, ou entre automóveis e vários tipos de infra-estruturas, fixas e móveis. É uma ideia que está em desenvolvimento em vários países mas que tem tardado em avançar para uma aplicação prática, devido a obstáculos de índole legal e também de compatibilização. O princípio base é muito interessante. Num raio de algumas centenas de metros, cada carro tem um emissor/receptor de 5,9 GHz, capaz de trocar informação. São várias as situações em que o car-to-x se pode revelar extremamente útil. Por exemplo, e no que diz respeito à segurança, imagine que há um acidente na auto-estrada. O carro acidentado poderá emitir imediatamente um alerta que seria recebido pelos carros que seguem atrás, e estes poderiam retransmitir a informação até um raio de distância do acidente considerado suficiente para evitar mais acidentes. Situações meteorológicas difíceis, engarrafamentos, obras na via são outras situações em que a comunicação car-to-x poderia ser um excelente factor de segurança.

Do trânsito ao estacionamento
Da mesma forma, em cidade, o sistema poderia coordenar a velocidade do trânsito de forma a pedir para travar mais cedo os carros que se aproximam dos semáforos que estão a mudar para vermelho, ou acelerar os que se aproximam do semáforo verde. Situações de cruzamentos também poderiam ser analisadas do ponto de vista da segurança. Mas o princípio pode também passar pela gestão do estacionamento nos centros citadinos. Nesta caso, seria a infra-estrutura do estacionamento que poderia lançar um aviso sobre os locais completos e os que ainda têm lugares vagos. A imaginação é o limite, podendo passar pela compra de bilhetes quando se passa à porta de uma casa de espectáculos.
O ISEL trabalha a fundo neste programa, tendo até já feito uma demonstração do sistema em Denver, nos Estados Unidos, com um protótipo. Para já, o sistema está a ser desenvolvido com duas caixas do tamanho de um antigo videogravador. Mas quando o soft­ware usado agora no suporte laboratorial for transformado em hardware, a versão final que chegará ao mercado terá o tamanho de um telemóvel. O custo de cada um dos emissores/receptores é hoje de cerca de 3000 euros, mas trata-se de material de laboratório, pelo que este valor é pouco relevante. A expectativa é que o custo da versão final seja cem vezes menor, ou seja, apenas 30 euros.

O papel do ISEL
O envolvimento do laboratório do ISEL no desenvolvimento do sistema car-to-x permite-lhe participar na definição da norma internacional que irá reger este tipo de comunicação, colocando os portugueses numa posição privilegiada. A demonstração feita num troço da Northwest Parkway de Denver, no Colorado, foi muito importante para o desenvolvimento do projecto, pois o ISEL é a única entidade na Europa a ter um sistema destes a funcionar, naquilo a que se chama WAVE (Wireless Acess Vehicle Environment). Na demonstração, o sistema usava antenas de banda larga de 30 centímetros, o que lhe permitia um alcance de um quilómetro, mas a versão final terá a antena integrada no módulo. A experiência consistiu na simulação de um alerta, lançado por um automóvel em movimento, que foi instantaneamente recebido por outro automóvel, a circular algumas centenas de metros atrás. Com capacidade para enviar 27 megabits por segundo, a rapidez desta comunicação é fulcral para o sucesso da ideia.

O ISEL está a trabalhar em colaboração com a Brisa para a aplicação deste sistema na comunicação entre o automóvel e as infra-estruturas de pagamento de portagem. O programa parte de uma desejada mudança de paradigma na cobrança de portagens. Em vez de existirem portagens físicas que obrigam a parar, passa a existir um princípio free-flow em que os automóveis não têm de passar por nenhum constrangimento na auto-estrada. Basta existir um emissor/receptor em cada carro e nas entradas e saídas das autoestradas.

Este projecto é muito mais complexo do que a Via Verde, pois permite todas as funcionalidades já descritas além de outras como a possibilidade de, quando montado numa ambulância em marcha de emergência, fazer passar a verde os semáforos que estiverem no seu trajecto. Outra hipótese é a chamada automática de uma ambulância, com informação precisa da localização, usando o GPS de bordo, assim que o airbag de um automóvel for activado. Na verdade, este cenário acaba por implicar que os veículos passam eles próprios a ser sensores que permitem ajudar a gerir o tráfego e a segurança.

Para quando?
O ISEL está envolvido no programa car-to-x há dois anos e meio mas ainda não existe uma data para a entrada em comercialização da ideia. Para ser incorporado como equipamento de série em todos os automóveis, isso implica uma harmonização entre todos os construtores, o que está ainda longe de acontecer. O mais provável é que o sistema entre no mercado como um interface de comunicação entre a Brisa e os seus subscritores, substituindo a Via Verde e acrescentando várias funcionalidades. Neste laboratório do ISEL, desenvolvem-se ideias e constroem-se protótipos. A eventual industrialização dos produtos finais já faz parte de outra fase.

Outros projectos estão em curso: por exemplo um, desenvolvido em colaboração com a EMEL, a entidade gestora dos estacionamentos municipais de Lisboa, prevê a possibilidade de pagamento de estacionamento através de telemóvel, usando o Bluetooth, tanto em pré-pagamento como em pós-pagamento. Também se trabalha numa nova geração de radares de controlo de velocidade, destinados a ser instalados nos 300 pontos negros da rede viária nacional, e nos famosos chips de matrícula para o pagamento das ex-SCUT.

Neste discreto laboratório do ISEL, desenvolvem-se ideias com inteligência portuguesa e trabalha-se com parceiros externos com vista à implantação dos novos conceitos. Trata-se, afinal, do papel que as universidades devem ter na sociedade.

F.M. Super Interessante

Video - O Alfabeto - Carrossel da Fantasia

Conteúdo - Estações Meteorológicas Automáticas e Radiosondagens


A rede nacional de estações meteorológicas automáticas de superfície (EMA) encontra-se em funcionamento operacional no IM desde junho de 2002 com 93 EMA (78 no Continente, 9 no arquipélago dos Açores e 6 no arquipélago da Madeira), as quais registam de 10 em 10min os elementos meteorológicos principais e elaboram de forma automática mensagens em forma de código que são enviadas à escala horária para a sede do IM e difundidas internacionalmente.

Esta rede permite obter em tempo real os dados meteorológicos indispensáveis para a previsão do estado do tempo com uma cobertura espacial adequada (cerca de 1000 km2/estação) para vigilância meteorológica à escala sinóptica e mesoscala e estudos climatológicos, incluindo utilização em disponibilidades energéticas (solar, eólica e hídrica) e no suporte em estudos micro-climáticos, servindo as EMA de referência para redes de estações climatológicas em pequenos períodos de exploração.


A rede aerológica Nacional é constituída por 3 estações, instaladas em Lisboa, Funchal e Lajes, onde são lançados diariamente, em regra às 00 e 12UTC, balões meteorológicos com radiossonda RS92-SGP que permitem medir, de 10 em 10m, aproximadamente, os valores da pressão atmosférica, da temperatura e humidade relativa do ar e do vento, desde a superfície até à altura de rebentamento do balão, que em geral é superior a 30Km.

Os dados referidos são recebidos num sistema recetor, DigiCORA, instalado à superfície e após o fim da radiossondagem, que tem duração aproximada de 2h, são transmitidos em forma de código meteorológico para a sede do IPMA para utilização própria e para difusão internacional. Este tipo de dados é fundamental na eficiência de modelos de previsão numérica do estado do tempo (à escala sinóptica) e são também utilizados em climatologia de altitude, na vigilância das condições meteorológicas de dispersão de poluentes atmosféricos e no cálculo da altura da camada de mistura e classes de estabilidade da atmosfera.

Manual - Brinca e Aprende com o Zé Pintas


Download 1 - Dropbox
Download 2 - Mega
Download 3 - Google Drive
Download 4 - Box


Vídeo - Hieróglifos Egípcios

quinta-feira, 28 de maio de 2015

Vídeo - Aprender a aprender

Vídeo - Máximo Divisor Comum

1ºAno - Estudo do Meio - Ficha de Trabalho - Partes do corpo


Download 1 - Dropbox
Download 2 - Mega
Download 3 - Google Drive
Download 4 - Box

Notícia - Descoberta floresta fossilizada com 298 milhões de anos

Na China desenterrou-se uma Pompeia do mundo natural com 298 milhões de anos. As cinzas de uma erupção cobriram uma floresta de fetos arbóreos, que ficou preservada até agora. O retrato deste pântano tropical está descrito na revista Proceedings of the Natural Academy of Sciences desta semana e permite compreender melhor a evolução das florestas da Terra numa altura em que ainda não havia flores.

“É como [a cidade romana] Pompeia”, disse em comunicado Herrmann Pfefferkorn, um dos autores do estudo, que pertence à Universidade de Pensilvânia, referindo-se à cidade situada na Itália que ficou cristalizada pelas cinzas do Vesúvio durante a erupção de 79 d.C. “Pompeia dá-nos um conhecimento profundo sobre a cultura romana, mas não nos diz nada sobre a história da [civilização] romana em si mesmo.”

Por outro lado, permite a comparação. Pompeia “elucida-nos o tempo que veio antes e que veio depois. Esta descoberta é semelhante. É uma cápsula do tempo, e desse ponto de vista permite-nos interpretar muito melhor o que aconteceu antes e depois”, disse o cientista.

E que tempo é este? Na cronologia da história geológica, há 298 milhões de anos, a Terra encontrava-se no início do período Pérmico, antes da era dos dinossauros. Nesta altura os mamíferos e as plantas com flor ainda não existiam e os répteis e as coníferas – o grupo de plantas a que os pinheiros pertencem – eram uma aquisição recente da evolução.

O mundo terrestre era dominado por anfíbios e por fetos com porte de árvore. E as placas tectónicas estavam a acabar de se juntar para formar a Pangeia. O local arqueológico que os cientistas da Academia de Ciência chinesa estudaram, na região da antiga Mongólia, no Norte da China, era na altura uma super ilha separada do continente, que se situava a latitudes tropicais, no Hemisfério Norte.

Os cientistas fizeram um verdadeiro trabalho de ecologia paleontológica com estratos soterrados que desenterraram, analisando 1000 metros quadrados de área florestal em três sítios diferentes. Se não tivesse havido erupção, ao longo de milhões de anos aquela paisagem ter-se-ia transformado em carvão no interior da Terra, como aconteceu em muitos locais semelhantes a norte a sul da formação.

Mas a cinza fez fossilizar a floresta, que ficou comprimida em 66 centímetros de solo e fez com que a equipa pudesse recriar um retrato detalhado da floresta. “Está maravilhosamente preservada”, disse Pfefferkorn. “Podemos estar ali a olhar e encontrar um ramo com folhas, e depois encontramos o outro ramo e o outro ramo. Depois encontramos um cepo da mesma árvore. É realmente emocionante.”

Os cientistas encontraram seis grupos de plantas diferentes com várias espécies em cada grupo. Há um estrato mais basal com fetos arbóreos, de onde de quando em vez saem árvores mais finas e altas que parecidas a um espanador de penas, com 25 metros de altura. Encontraram também um grupo de plantas extinto que libertava esporos e árvores que parecem ser antepassados das cicadófitas, plantas sem flores que fazem lembrar palmeiras.

"Isto agora é a base. Qualquer outra descoberta, normalmente muito menos completa do que esta, tem que ser avaliada com base no que determinámos aqui", disse Pfefferkon, referindo-se à evolução da flora daquela altura.

Notícia - O LHC não pára em 2012

Ao contrário do que chegou a estar previsto, o LHC, o grande acelerador de partículas do Laboratório Europeu de Física das Partículas (CERN), perto de Genebra, na Suíça, vai continuar a funcionar durante todo o ano de 2012.


Segundo um comunicado emitido ontem pelo CERN, apenas deverá haver um “curto intervalo técnico” no final de 2011. A interrupção prolongada, indispensável para pôr o LHC a funcionar ao seu nível máximo de energia, fica assim adiada para 2013, dando ao acelerador, explica ainda o documento, “uma boa hipótese de fazer descobertas de física nos próximos dois anos”.

O derradeiro objectivo do LHC é a detecção do bosão de Higgs, também chamado “partícula de Deus”, que permitiria explicar por que é que as partículas elementares têm massa. Actualmente, o LHC está a operar a metade da sua potência máxima, mas o facto de ter estado a funcionar muito bem nos últimos meses acabou por motivar o adiamento das reparações. “Com o LHC a funcionar tão bem em 2010 e com as melhorias adicionais que se esperam (...), se a natureza for clemente connosco e (...) o bosão de Higgs estiver ao alcance da energia actual do LHC, os dados que prevemos recolher até finais de 2012 podem permitir descubri-lo”, declarou Sergio Bertolucci, o director do CERN.

Recorde-se que o CERN passou, recentemente, a ser a única entidade no mundo na corrida para o bosão de Higgs, depois de o Departamento da Defesa norte-americana ter decidido encerrar definitivamente, já em Setembro deste ano e por falta de financiamento, o segundo maior acelerador de partículas: o Tevatron do Fermilab, perto de Chicago, em funcionamento há 25 anos.

quarta-feira, 27 de maio de 2015

Vídeo - Grandes Pensadores: Platão

Conteúdo - Noções de Climatologia

Qual a relação da temperatura com a latitude?
Quanto menor for a latitude, maior será a temperatura. Por exemplo: no Equador, os raios solares incidem perpendicularmente na Terra, dando lugar a que grande parte da energia seja depositada no solo. Em latitudes mais elevadas, o Sol não incidirá perpendicularmente, quer devido à curvatura da Terra, quer pelo desvio dos raios solares causado pela atmosfera. Deste modo, nem todos os raios solares chegarão ao solo para debitarem calor. O clima de qualquer região terá outras influências além da curvatura da Terra, como sejam a presença de água ou a orografia.


Como é o clima no Polo Sul?
O clima no Polo Sul, melhor, o clima da Antártica, é o mais frio da Terra. É extremamente seco, com uma média anual de precipitação entre 30 e 70 mm. Na maior parte do continente a neve nunca derrete e é comprimida até transformar-se em plataformas de gelo. As massas de ar raramente penetram a fundo no continente.

Quais as principais limitações para a descrição do clima de uma região, utilizando-se a classificação climática?
As características atmosféricas de um determinado local são influenciadas pelas condições existentes no local, resultantes da combinação de algumas grandezas físicas denominadas por elementos climáticos. A classificação de Köppen, a classificação de Thornthwaite e a classificação ecológica podem satisfazer o microclima de uma localidade, mas como tudo em Meteorologia tem as suas limitações. Tudo vai depender dos fenómenos apresentados na natureza. O El-Niño e a La-Niña são seus exemplos.

Há limitações para a descrição do clima de uma localidade, utilizando a classificação climática de Köppen?
Existem vários esquemas de classificação climática, sendo o de Köppen o mais conhecido. É útil quando queremos comparar climas de diferentes regiões, usando principalmente dados de temperatura e de precipitação.

O que é o "Efeito de estufa"?

O efeito de estufa é um processo natural que determina o clima da Terra e faz com que a temperatura da Terra seja superior do que a que seria na ausência da atmosfera. O efeito estufa dentro de uma determinada faixa pode ser considerado como uma coisa boa, pois, sem ele a vida, como se conhece, não poderia existir.

A denominação de efeito de estufa deve-se à analogia com o que acontece numa estufa de plantas: o vidro deixa passar a radiação de pequeno comprimento de onda emitida pelo Sol mas absorve a radiação infra-vermelha emitida pelo solo, dando assim origem a temperaturas mais elevadas dentro da estufa. No caso da Terra é a atmosfera que funciona parcialmente como o vidro da estufa.

A atmosfera é constituída essencialmente por azoto e oxigénio que são transparentes tanto para a radiação emitida pelo Sol como para a radiação de maior comprimento de onda emitida pelo solo. Existem, no entanto, outros constituintes menores da atmosfera, como o vapor de água e o dióxido de carbono, que absorvem a radiação emitida pelo solo. A radiação absorvida por estes gases é, então, reemitida em todas as direções, alguma reenviada de novo para a Terra.

Estima-se que a temperatura média da superfície da Terra, de cerca de 15°C, seria de -18°C na ausência do efeito de estufa.


Normais Climatológicas?

Em Meteorologia uma normal de um elemento meteorológico é o valor médio desse elemento ao longo de um período fixo de anos para um determinado local, região, país ou área geográfica. Num sentido mais alargado, as normais devem consistir num conjunto de estatísticas descritivas que inclui a média, a mediana, o desvio padrão, os quartis, a distribuição de frequências, os valores extremos, etc. dos elementos meteorológicos considerados.

Na Conferência Internacional de Meteorologia em 1935, em Varsóvia, o período compreendido entre 1901 e 1930 foi selecionado como o período internacional padrão para as normais. Posteriormente a recomendação internacional é recalcular as normais ao fim de cada década usando os 30 anos anteriores. As normais que se iniciam, por exemplo, a 1 de janeiro de 1941 terminam a 31 de dezembro de 1970; as normais seguintes iniciam-se a 1 de janeiro de 1951 e terminam a 31 de dezembro de 1980, e assim sucessivamente. A estas normais chamam-se normais climatológicas. Esta prática é usada para ter em conta as variações lentas do Clima. O período de anos considerado para as normais deve ser sempre referido claramente, já que os resultados obtidos para diferentes períodos com a mesma duração raramente são iguais.

Os principais elementos meteorológicos considerados no cálculo das normais são a temperatura do ar (média, máxima e mínima), a pressão atmosférica, a precipitação, a humidade do ar, a insolação, a nebulosidade, a evaporação e o vento. Estão igualmente incluídos neste conjunto o número de dias em que ocorreu neve, granizo ou saraiva, trovoada, nevoeiro, orvalho e geada.


E em Portugal? O clima está a mudar?

A temperatura média do ar tem estado a aumentar desde meados do século XIX. Este aumento, depois de retirado o ‘efeito de ilha urbano’, é estimado em 0.0074°C/ano.
 - A amplitude térmica diária, diferença entre a temperatura máxima e a temperatura mínima, está a diminuir desde 1946. Esta diminuição deve-se ao facto de as temperaturas mínimas estarem a aumentar mais do que as máximas.
 - A quantidade de precipitação está a diminuir em março.
 - Nas últimas duas décadas houve um aumento na frequência e na intensidade de situações de seca.
 - A temperatura da água do mar junto à costa ocidental tem estado a aumentar desde 1956. Esse aumento é similar ou superior ao aumento da temperatura do ar para o mesmo período.


O clima da Terra está a mudar?

A análise de um grande conjunto de observações mostra mudanças recentes no sistema climático, estas conclusões foram apresentadas numa publicação de referência (Climate Change 2001: The Scientific Basis. IPCC Third Assessment Report):
- A temperatura média global à superfície aumentou cerca de 0.6°C no século XX. Registos desde 1861, mostram a década de 1990 como a mais quente, e o ano mais quente o de 1998. Em média, entre 1950 e 1993, a temperatura mínima diária do ar aumentou cerca de 0.2°C por década, o dobro do aumento da temperatura máxima diária.
- No mesmo período, entre 1950 e 1993, a temperatura da água do mar aumentou cerca de metade do que a temperatura média sobre o continente.
- Dados recolhidos de satélites mostram que houve uma diminuição de cerca de 10% da área coberta de neve e gelo desde o fim da década de 60.
- O nível médio da água do mar subiu entre 0.1 e 0.2 m durante o século XX.

Em que sentido se deve usar o termo “condições climatéricas”?
É correto, por exemplo, dizer que numa determinada data e hora, o estado do tempo que se caracterizou por chuva intensa, obrigou à interrupção de um jogo de futebol.

É incorreto dizer que foi devido às condições climáticas ou climatéricas. Por outro lado, por exemplo, é correto dizer que as condições climáticas de Atlanta, nos meses de Julho e Agosto, com temperatura do ar e humidade relativa elevadas, podem prejudicar o desempenho dos atletas.

Diferença entre Tempo e Clima?

O tempo num dado local e num dado instante é definido por um conjunto de elementos atmosféricos: temperatura do ar, vento à superfície, pressão atmosférica, nebulosidade, humidade relativa do ar, etc.

O clima é uma síntese dos estados de tempo característicos de um dado local ou região num determinado intervalo de tempo definido. Para definir o clima recorre-se à estatística e utilizam-se valores médios, valores extremos, probabilidades de ocorrência ou de excedência, etc. O tempo e o clima são, portanto, duas formas de descrever as mesmas variáveis mas utilizando diferentes escalas temporais.

http://www.ipma.pt/


Manual - Segurança no Transporte de Crianças e Gestantes


Download 1 - Dropbox
Download 2 - Mega
Download 3 - Google Drive
Download 4 - Box


Vídeo - Civilização Inca

terça-feira, 26 de maio de 2015

Vídeo - Homem sem mãos que toca guitarra

Vídeo - Factorização em factores primos

1ºAno - Português - Ficha de Trabalho - Abecedário


Download 1 - Dropbox
Download 2 - Mega
Download 3 - Google Drive
Download 4 - Box


Notícia - Cientistas russos ressuscitaram flor com 30 mil anos

É uma história que faz lembrar o Jurassic Park, sem âmbar nem dinossauros mas com a ajuda de esquilos pré-históricos: os cientistas russos conseguiram fazer crescer uma flor a partir de material vegetal congelado há 30 mil anos que foi guardado em buracos pelos pequenos mamíferos da época. Os resultados da investigação foram publicados agora na Proceedings of the National Academy of Sciences .

O poder de conservação das plantas é bem conhecido pelos cientistas. As sementes podem germinar passado muito tempo, 2000 anos até, no caso de sementes de palmeiras encontradas numa fortaleza de Masada, perto do Mar Morto, em Israel. Mas os resultados obtidos pela equipa liderada por Svetlana Yashina e David Gilichinsky, da Academia de Ciências Russa, não têm precedentes. “No presente, as plantas da S. stenophylla são os mais antigos organismos multicelulares viáveis”, escreveram os autores no artigo.

A planta que conseguiram regenerar da espécie Silene stenophylla continua a crescer na Sibéria. Mas este material biológico da flor estava escondido num dos 70 buracos de hibernação feitos pelos esquilos que viviam naquela altura, que os cientistas investigaram, no Nordeste da Sibéria.

“Todos os buracos foram encontrados a profundidades de 20 a 40 metros, da superfície de hoje, e estão localizados nas mesmas camadas onde existem ossos de grandes mamíferos como mamutes, rinocerontes-lanudos, bisontes, cavalos, veados, alces, e outros representantes da fauna” do Plistocénico tardio, escreveu a equipa.

Os buracos estão na acamada de permafrost, uma camada de solo gelada e que funciona como um congelador gigante. Este solo manteve durante dezenas de milhares de anos o material a uma temperatura média de -7 graus célsius. No laboratório, através da técnica de Carbono 14, os cientistas aferiram a idade do material, que tem cerca de 31.800 anos, com um erro de 300 anos.

O material continha sementes e partes do fruto da espécie vegetal. A equipa tentou germinar as sementes, mas não obteve sucesso, depois utilizaram partes vivas do furto da planta. Ao contrário dos animais, é possível regenerar uma planta a partir de partes vivas de um espécime, que nas condições certas, acabam por se desenvolver dando origem a raízes, caules, folhas, flores e frutos. No fundo, desenvolve-se um clone. Foi o que aconteceu nesta experiência, os cientistas colocaram a germinar pedaços do fruto, que germinou e deu uma planta com flores. Os cientistas conseguiram ainda produzir novas plantas a partir das sementes produzidas por estas flores.

Segundo os autores, este “milagre” foi possível, porque as células do fruto utilizadas para a germinação eram ricas em açúcar, o que protegeu o ADN e o material das células do frio. Esta protecção possibilitou a multiplicação celular quando a equipa pôs o material a germinar.

“Isto é uma enorme descoberta”, disse Grant Zazula, cientista do Programa de Paleontologia de Yukon, do Canadá, ao New York Times, defendendo que “não tem dúvidas” dos resultados obtidos pelos cientistas russos serem verdadeiros.

As novas plantas têm uma fisionomia diferente no formato das flores em relação aos espécimes de hoje. Os cientistas não conseguiram explicar a causa destas diferenças. A equipa defende que esta descoberta pode ajudar a compreender melhor o processo da evolução das espécies, além de dar mais informação sobre o clima que existia ali há 30.000 anos.

Mais excitante, contudo, são as novas possibilidades de regenerar plantas que entretanto se extinguiram, e cujo material se mantém conservado na natureza por um processo semelhante. “Há uma oportunidade de ressuscitar flores que foram extintas da mesma forma que falamos em trazer os mamutes de volta à vida, a ideia parecida com a do Jurassic Park”, disse Robin Probert, do Banco de Sementes Milénio, Reino Unido, citado pela BBC News.

Notícia - O protão encolheu


Cientistas portugueses na capa da Nature

Um grupo de oito investigadores portugueses foi convidado a estar entre os melhores do mundo numa experiência que visava medir com precisão o raio do protão. O resultado final foi inesperado e promete abalar algumas certezas da física nuclear: afinal, o protão é mais pequeno do que se julgava.

"Quando descobrirmos como é constituído o núcleo dos átomos, teremos encontrado o maior segredo de todos, com excepção da vida. Teremos a base de tudo, da terra que pisamos, do ar que respiramos, da luz do Sol, do nosso corpo físico, de tudo no Mundo, por mais grandioso ou pequeno que seja.” Esta profecia foi atribuída ao neo-zelandês Ernest Rutherford, o pai da física nuclear. Não deixa de ser curioso que, quase cem anos depois de ela ter sido proferida, ainda resta muito por saber sobre uma das pedras basilares de toda a matéria – o núcleo do átomo.

A prová-lo está a recente revelação de que o protão, um dos elementos constituintes do núcleo atómico, a par do neutrão, pode ser mais pequeno do que está oficializado. A notícia foi capa da Nature em Julho e teve o condão de fazer os teóricos da física nuclear saltar das suas cadeiras, pois isso significa que algumas das teorias, tidas como das mais precisas que actualmente existem, podem estar incompletas ou erradas em alguns pormenores.

A conclusão é fruto de um conjunto de experiências coordenadas e realizadas no Paul Scherrer Institute (PSI), em Villigen, na Suíça, e protagonizadas por uma equipa internacional de 32 investigadores. Entre eles contam-se oito portugueses (seis da Universidade de Coimbra e dois da Universidade de Aveiro), responsáveis pelo sistema de detecção de raios X que integra o equipamento experimental.

“Foi uma grande surpresa”, confessa Joa­quim Santos, coordenador do Centro de Instrumentação da Faculdade de Ciências e Tecnologia da Universidade de Coimbra, a instituição que lidera as investigações a cargo dos portugueses. “O objectivo desta experiência era apenas o de melhorar, em dez vezes mais, a precisão com que era conhecido o raio do protão.”

De facto, o valor oficial para o raio do protão cifra-se, neste momento, nos 0,8768 fentómetros, sendo que cada fentómetro equivale a uns exíguos 0,000.000.000.000.001 metros. A ambição da equipa do PSI passava por acrescentar mais uma casa decimal ao valor em fentómetros.

Mas, como por vezes acontece, as grandes descobertas surgem quando menos se espera. Foi este o caso. Além de precisarem o valor com mais uma casa decimal, os investigadores ainda deram de caras com um novo tamanho: 0,84184 fentómetros para a distância do raio. Abusando de mais um valor incrivelmente diminuto, a revelação aponta para que o protão seja 0,000.000.000.000.03 milímetros (!) mais pequeno do que se julgava. Eis como o protão foi encolhido em cerca de quatro por cento.

Antes de dissecar as possíveis consequências desta descoberta inesperada, existe uma questão que salta logo à frente. Como é possível obter números tão liliputianos e com uma precisão tão extraordinária?

O núcleo ganha um novo parceiro

O átomo de hidrogénio é o sistema atómico mais simples que a natureza produz, razão pela qual os cientistas o adoptam como modelo de estudo. O seu núcleo é muito peculiar, pois dentro dele não existe um neutrão (como se verifica nos outros átomos), somente uma partícula com carga positiva (o protão), enquanto que a orbitá-lo, como se fosse um planeta em torno do Sol, está outra partícula mas com carga negativa (o electrão). A comparação com um sistema solar está longe de ser perfeita, mas é uma boa analogia inicial para perceber melhor a dinâmica de um átomo.

Tal como acontece com os planetas, ao orbitar à volta do protão, o electrão pode ter várias e diferentes órbitas, com cada uma delas a corresponder a uma determinada energia. Para um electrão se mover de uma órbita para outra, o sistema tem de receber ou perder energia. Melhor dizendo: “Sempre que o electrão está numa orbital mais exterior”, com mais energia, “diz-se que está num estado excitado, e quando passa para uma orbital interior ele emite energia”, explica Joaquim Santos.

De forma ingénua, podemos afirmar que os núcleos e os electrões atraem-se e repelem-se devido ao incessante jogo de sedução entre as quantidades de carga positiva e negativa que têm. Desta “estranha” relação podem advir coisas tão simples como a corrente eléctrica que vai alimentar a lâmpada do nosso quarto ou o laser de um leitor de DVD.

Mas a chave para o sucesso da experiência passou por substituir o parceiro do núcleo atómico do hidrogénio, o electrão, por uma outra partícula subatómica, o muão. Em vez de fazer testes com o hidrogénio electrónico, os investigadores do PSI recorreram, assim, a um “átomo exótico”, o hidrogénio muónico.

A escolha é prontamente dissecada pelo cientista de Coimbra: “Substituímos o electrão pelo muão pela simples razão de que é uma partícula parecida com o electrão mas 200 vezes mais pesada. Portanto, as orbitais do muão estão 200 vezes mais próximas do protão.” Deste modo, os efeitos da carga eléctrica do protão são mais claros e podem ser mais bem estudados. É como ter “uma bola de futebol a um metro de distância, em que os seus detalhes e costuras são mais nítidos do que se estiver a cem metros”.

Ao estudar os níveis de energia que correspondem ao hidrogénio muónico, torna-se possível determinar o raio do protão com maior exactidão. Para isso, basta medir a diferença de energia entre esses níveis, usando para o efeito as formulações da electrodinâmica quântica (QED, da sua designação em inglês), a teoria que descreve a interacção da radiação electromagnética (da luz, por exemplo) com os átomos (a matéria).

Primeiro o muão, depois o laser…

Mas vamos por partes. A experiência que foi feita na Suíça dividiu-se em três actos que culminaram num auge. Primeiro, para substituir o electrão por um muão no átomo de hidrogénio, é necessário criar um feixe de muões que possa ser disparado sobre hidrogénio. Uma das peculiaridades do muão é ele existir apenas durante dois microssegundos (dois milionésimos de segundo), em virtude de ser uma partícula instável. Na verdade, passado o seu curto tempo de vida, ele decai e transforma-se num electrão.

Neste curtíssimo espaço de tempo, é produzido um feixe de muões num acelerador de partículas, o qual é prontamente conduzido até uma garrafa de hidrogénio. “Os muões, ao chegarem e pararem dentro dessa garrafa, comportam-se como se dessem um chuto ao electrão”, exemplifica o investigador português. “Afastam o electrão de um átomo e ficam muito mais perto do protão.”

A habilidade parece corriqueira, mas é uma técnica que levou décadas a aperfeiçoar. ­Aliás, o protão do hidrogénio muónico só não foi medido há mais tempo porque isso envolve construir um feixe intenso de muões, retirar os electrões que surgem com o decaimento de alguns muões e, por fim, diminuir a velocidade das partículas que são produzidas. Esta redução é fundamental: “Quando os muões surgem, são muito velozes, sendo necessário travá-los, de modo a que reduzam a sua velocidade e cheguem à garrafa de hidrogénio praticamente parados.”

O segundo desafio foi arranjar um laser que dispare energias equivalentes às diferenças de energia das orbitais do muão. Para isso, é necessário que o comprimento de onda desse laser (a distância entre as cristas das ondas electromagnéticas que estão associadas ao feixe) seja regulável, de modo a obter o exacto nível de energia que permite excitar um muão e mudá-lo para uma órbita exterior. “Só quando o laser tem essa energia bem definida é que consegue fazer essa função, e é assim que podemos saber, com grande exactidão, qual é a diferença de energia entre as órbitas”, acrescenta Joaquim Santos

Como se tudo isto não fosse suficiente, logo que o fugaz muão surge na garrafa de hidrogénio o laser tem de ser disparado para o seu interior em menos de um microsegundo, com uma energia significativa capaz de apanhar o átomo exótico. Forte, rápido e peculiar. Atributos nada fáceis de conjugar, mas que foram alcançados pela equipa liderada pelo alemão Theodor Hänsch, também envolvida no projecto. O culminar foi a atribuição do Nobel da Física de 2005 a Hänsch, precisamente pelo tipo de laser que ajudou a criar.

…e por fim, o raio X português

E onde é que entram os investigadores portugueses? “O que o laser faz é excitar estados de energia que vão depois decair e levar à emissão de um fotão X”, descreve João Veloso, investigador da Universidade de Aveiro. “Quando a energia/comprimento de onda do laser é igual à diferença de energia dos estados, temos uma ressonância”, adianta ainda. Daqui resulta um pico de intensidade na emissão dos fotões X, ou se preferirmos dizer, de raios X. O papel da equipa portuguesa consistiu em desenvolver o sistema de detecção da radiação que é emitida.

Os oito cientistas portugueses foram convidados pelo PSI em 1998, quando o projecto ainda estava a ser delineado. Nessa altura, todos eles estavam na Universidade de Coimbra, e só mais tarde, com a investigação já a decorrer, dois deles se transferiram para a Universidade de Aveiro. “O PSI contactou-nos por causa dos desenvolvimentos que tínhamos feito com detectores de radiação X”, avanços esse que envolviam “detectores baseados em gás”, conta João Veloso. Um dos atributos especiais deste tipo de equipamento era a sua grande área de detecção. “Entretanto, apareceu outro tipo de detectores, dotados de semicondutores (os fotodíodos de avalanche), que se mostraram mais adequados à experiência.”

Apesar de serem mais pequenos, devido à nova tecnologia implantada, a vantagem é que podiam aproximar-se mais da garrafa de hidrogénio. Após neutralizarem o perigo de interferência que podia ser provocado por algumas partículas de alta energia, nomeadamente das que derivam da radiação gerada pelos próprios processos físicos desenvolvidos na experiência, o equipamento estava pronto a funcionar.

Os princípios que regem o funcionamento do sistema de detecção são fáceis de entender. Os semicondutores convertem os raios X emitidos num determinado número de electrões, detectando em seguida a carga eléctrica que foi depositada. Sendo assim, quando um raio X tem o dobro da energia, a carga produzida também é igual ao dobro. Será a partir do valor da carga eléctrica detectada que é possível saber a energia libertada, e daqui deduzir a diferença de energia entre as órbitas do muão.

Deste modo, com o feixe de muões, o sistema laser e o detector de raios X, este último sob responsabilidade portuguesa, temos os três pilares necessários para que a experiência desse os seus frutos. O resultado acabou por ser melhor do que o esperado.

Incertezas: das teorias ao LHC

Eureka! Após três tentativas falhadas, em 2003, 2005 e 2007, a máquina de medir protões conseguiu ter êxito no dia 5 de Julho do ano passado. Passou um ano até a descoberta ser anunciada, pois era necessário analisar os resultados e verificar se os instrumentos utilizados estavam bem calibrados. Uma vez garantido que tudo estava certo, os 32 físicos formalizaram a notícia pelos quatro cantos do mundo. O átomo parece ser mais pequeno em quatro por cento. E daí, qual o problema?

O problema é que “isso pode ter consequências muito grandes junto da QED, uma teoria aceite universalmente e que relaciona as interacções entre luz e matéria”, desabafa João Veloso. “A partir de agora, os teóricos que desenvolvem esta teoria terão muito trabalho pela frente. Algumas das possibilidades são a inclusão de novos parâmetros na teoria, ou estarmos perante uma nova física, onde novos e diferentes tipos de interacção terão de ser considerados.” O assunto pode interferir com o domínio prático, pois é a teoria QED que explica o funcionamento básico de algumas tecnologias do nosso quotidiano, como os lasers ou as ampolas de raios X que são usadas para fins clínicos.

No entender do coordenador da equipa portuguesa, outro dos paradigmas universais que poderão sofrer o ricochete da nova descoberta é a constante de Rydberg. “Esta está relacionada com as energias orbitais sucessivas que os electrões nos átomos podem ocupar. É um parâmetro, um valor, que está associado a esses níveis de energia.” Se ficar definitivamente comprovado que o raio do protão é menor, “a constante terá de mudar”. A situação pode causar ainda mais alvoroço, já que “a sua precisão era conhecida até doze casas decimais e não se esperava que pudesse ter um valor diferente”. O que antes era dado como certo é agora posto em dúvida.

E o que dizer do Grande Acelerador de Hadrões (LHC), a obra faraónica que custou mais de três mil milhões de euros e que promete puxar os limites da física até aos confins do compreensível? É preciso não esquecer que, para as suas experiências, são usadas partículas sub­atómicas pertencentes à família dos hadrões, principalmente… protões. “Se estamos a disparar coisas mais pequenas do que pensávamos, vamos obter sinais com menos intensidade e a probabilidade de colisão é menor”, conclui Joaquim Santos. “Obviamente, a performance da máquina não está em causa, mas ela poderá render menos do que se esperava.” Todavia, os dois investigadores portugueses afinam pelo mesmo diapasão, afiançando que tudo isto não passa de “pura especulação”.

E a seguir?

Quando se apresentam resultados experimentais que não coincidem exactamente com as teorias mais precisas, todo o cuidado é pouco. Apesar de tudo, os investigadores portugueses do PSI aparentam estar muito tranquilos. “Para já, quando é feita uma publicação na Nature, esta passa por um processo de arbitragem bastante apertado, pois são consultados os maiores especialistas na área”, lembra João Veloso. “Entretanto, no eco que já se obteve, não houve vozes contra a credibilidade desta experiência. Acho que a comunidade científica aceita o valor.”

“Defendemo-nos muito bem, não só calibrando com grande precisão os nossos aparelhos (porque são muitos), como também medindo outros valores e tentando através deles chegar ao raio do protão”, adianta, por sua vez, o coordenador da Universidade de Coimbra. “Chegámos à conclusão de que tudo é consistente.” A batata quente é assim passada às teorias existentes, com o dedo apontado a uma falha ou lacuna no seu formalismo.

Uma forma de confirmar os dados actuais consiste em fazer mais e novas experiências, aumentando o seu nível de complexidade. Por agora, já foram feitos alguns testes no átomo de deutério. Na sua forma original, este átomo é uma variante do hidrogénio, com a diferença de ter no núcleo mais uma partícula, esta dotada de carga neutra, o neutrão. Tal como antes, o electrão foi substituído por um muão, com os resultados obtidos a confirmarem os valores obtidos para o hidrogénio.

O passo seguinte será dado em 2012. O novo alvo é o átomo de hélio, um núcleo com dois protões e dois neutrões, a que se juntam dois electrões a orbitá-lo. A fasquia eleva-se. Os oito portugueses terão de estudar as melhores alternativas face às novas experiências que serão desenvolvidas. A energia dos raios X que serão libertados com o hélio muónico será quatro vezes maior do que a do hidrogénio. Os mesmos detectores serão testados na nova investigação, tal como outros mais, de modo a ver quais os que têm maior eficiência e sensibilidade na detecção da radiação. Nos próximos tempos, emoção é o que não faltará aos elementos de Coimbra e Aveiro.

Equipa com quinas

Todas as experiências em torno da medição do raio do protão decorreram no Paul Scherrer Institute, na Suíça. Com uma força de trabalho de 1300 pessoas e um orçamento anual de quase 190 milhões de euros, é considerado o maior centro de investigação da Suíça.

Para levar a cabo o projecto, em 1998 o instituto decidiu reunir um conjunto de investigadores de vários países, especializados em diversas áreas de investigação: física dos aceleradores, física atómica, sistemas laser e tecnologia de detecção de radiação, a área de especialidade dos cientistas portugueses.

Ao todo, foram reunidos 32 investigadores, vindos da Alemanha, da Suíça, de França, dos Estados Unidos e da Formosa. Portugal esteve presente com oito especialistas: da Universidade de Coimbra, Joaquim Santos (coordenador da equipa), Luís Fernandes, José Matias, João Cardoso, Fernando Amaro e Cristina Monteiro; da Universidade de Aveiro, João Veloso e Daniel Covita.


Uma brevíssima história do átomo

Cerca de 400 a.C. – O grego Demócrito aperfeiçoa a ideia de que a matéria não é contínua mas granular, feita de fragmentos indivisíveis ou atomos.

1897 – Joseph Thomson descobre a natureza granular da electricidade, ou seja, encontra o electrão. Era a primeira vez que se descobria uma partícula elementar, facto que valeu ao inglês o Nobel da Física em 1906.

1911 – Laureado com o Nobel em 1908, três anos depois o neo-zelandês Ernest Rutherford revelou que os núcleos dos átomos concentram uma carga positiva, o protão.

1932 – O protão não está sozinho no núcleo. Quem o provava era James Chadwick, depois de detectar partículas destituídas de carga eléctrica a que deu o nome de “neutrões”. Os três principais componentes do átomo eram finalmente conhecidos. Para não destoar dos restantes colegas, em 1935 o físico inglês também recebeu o Nobel da Física.



Como se mede o raio de um protão?

Depois de produzidos, os muões são desacelerados através de um campo magnético intenso.

Em seguida, atravessam um dispositivo em espiral dotado de um campo magnético uniforme (um solenóide), usado para focar os muões e separá-los dos electrões produzidos.

Uma vez formado o hidrogénio muónico, este é “excitado” através de um feixe laser.

Quando o muão decai para uma órbita inferior, são emitidos raios X que os fotodíodos de avalanche (quadrado rosa) vão detectar. O nível de radiação atinge o seu pico quando a energia do laser é igual à diferença de energia das órbitas.



Do espaço sideral para o laboratório

O norte-americano Carl David Anderson (1905–1991) já tinha entrado para a história da física nuclear em 1932, com a descoberta do positrão, a antipartícula do electrão. O facto valeu-lhe o Nobel da Física em 1936.

Todavia, o investigador não descansou sobre os louros conquistados: no mesmo ano em que foi a Estocolmo receber o prémio, subiu ao topo de montanhas para estudar os raios cósmicos. Esta radiação é constituída por partículas extremamente energéticas (em grande parte protões) que se deslocam quase à velocidade da luz pelo espaço sideral.

Davidson dedicou o seu tempo a estudar o momento em que essas partículas entram de rompante na atmosfera terrestre, colidindo com os núcleos dos átomos da atmosfera, a dez mil metros de altura. As suas observações detectaram que algumas das partículas que se formavam com as colisões tinham trajectórias invulgares, menos curvadas do que as dos electrões mas mais acentuadas do que as dos protões.

Concluiu estar-se perante uma partícula que tinha mais massa do que um electrão, mas menos do que um protão. Hoje em dia, essa partícula é conhecida por “muão”. Quando foi descoberta, tornara-se a primeira partícula para o qual os cientistas não encontravam um papel óbvio na estrutura atómica. A sua utilidade para a Natureza parecia nula, um contra-senso em forma de quebra-cabeças. Houve até um físico que se insurgiu e clamou: “Mas quem foi que os encomendou?”

Mais tarde, ficou a saber-se que o muão, apesar de ser 200 vezes mais pesado do que o electrão, é muito semelhante a este, inclusivamente no valor da carga eléctrica negativa (daí que possa substitui-lo na órbita de um núcleo atómico).

Em pleno século XXI, são os centros de investigação em física nuclear que tentam encomendá-los para as suas experiências, como a que foi feita para medir o protão. De tal modo que já os produzem nos seus aceleradores de partículas, a exemplo do que faz o PSI.

Ao chocarem protões contra folhas de grafite, são criadas partículas subatómicas denominadas de “piões”, parecidas com os muões mas mais pesadas e com um menor tempo de vida. Expirado o “prazo de validade”, estas decaem para muões. Passados os dois microsegundos de existência dos muões, estes transformam-se em partículas estáveis, os seus irmãos electrões.


J.P.L.
SUPER 149 - Setembro 2010

Vídeo - Quem és tu Luís Vaz de Camões?

segunda-feira, 25 de maio de 2015

Manual - Apoio à Criança


Download 1 - Dropbox
Download 2 - Mega
Download 3 - Google Drive
Download 4 - Box


Vídeo - Construindo um Império - Os Maias

Notícia - Casa eficiente envia alertas quando residentes estão doentes



Uma equipa de investigadores da Universidade de Hertfordshire, no Reino Unido, acabou de desenvolver uma casa eficiente que consegue enviar alertas caso dos residentes estarem doentes. A InterHome é o primeiro edifício capaz de aprender com os moradores e de tomar decisões activas, assim como enviar mensagens se for assaltada, se a porta estiver destrancada ou monitorizar a saúde dos ocupantes.
“Criamo-la a pensar nas pessoas mais idosas, assim, a casa pode alertar o exterior se uma das pessoas do espaço cair ou tiver um ataque cardíaco por exemplo”, disse Johann Siau, docente da School of Engineering and Technology, daquela universidade.A equipa desenvolveu um protótipo que pode ser colocado no pulso de um indivíduo e os vários sensores lêem a temperatura do corpo e as pulsações.

“Isto tudo abre-nos uma plataforma onde possamos adicionar novas tecnologias relacionadas com a assistência na saúde”, continuou Siau. A InterHome incorpora unidades de projecto modulares personalizadas e é traçada por sistemas de automação domésticos normais que foram adaptados de modo que a casa "aprenda" e "se adapte" ao estilo de vida dos utilizadores.

O protótipo, que foi desenvolvido a partir de uma casa de bonecas, integra dispositivos de automação domésticos, de modo a que forneçam conforto e segurança ao proprietário e que lhe permita ainda reduzir energia. O espaço dispõe igualmente de um intuitivo painel de controlo, com uma tela táctil que permite que a casa ser controlada a partir de navegadores web e de qualquer telemóvel.


“Esta casa eficiente tem vantagens relativamente a outras com características semelhantes, por ser modular, adaptável, e capaz de aprender as rotinas dos seus habitantes”, assinalou ainda a investigadora.

A tecnologia permite que o sistema aprenda rapidamente quando é necessário acender a luz ou se os residentes se encontram em casa, no trabalho e como é que a casa deve estar, dentro de determinados horários, como com a porta principal trancada, as luzes desligadas, e, nestes casos, os proprietários são notificados por mensagem e mediante a resposta podem reprogramar o sistema.

A InterHome pode acabar com o desperdício de energia e pode fazer a diferença no que diz respeito às emissões de dióxido de carbo, quando o sistema for instalado em número suficiente de casas no Reino Unido. O protótipo já está a ser testado por indústria e a equipa dirigida por Siau trabalha com Building Research Establishment – que já está a instalar o sistema em duas casas, em exposição, do parque de inovação.


domingo, 24 de maio de 2015

Vídeo - Pedagogia da Autonomia - Paulo Freire

Vídeo - Números Primos

Notícia - Reconstruído fóssil de pinguim que viveu há 25 milhões de anos na Nova Zelândia

Há 25 milhões de anos vivia na Nova Zelândia um pinguim com mais de um metro de altura, Kairuku, revelam agora os investigadores que reconstruíram o fóssil deste animal pré-histórico, depois de 35 anos de trabalho.

“Kairuku [palavra Maori que significa “mergulhador que regressa com alimento”] era uma ave elegante para os padrões dos pinguins, com um corpo esguio” e patas robustas, e estima-se que tivesse mais de um metro e 20 de altura, disse em comunicado Dan Ksepka, da Universidade estatal da Carolina do Norte, nos Estados Unidos. O investigador acredita que esta seria a maior das cinco espécies comuns na Nova Zelândia há 25 milhões de anos. Na verdade, seria mais alto do que o pinguim-imperador (Aptenodytes forsteri) actual.

O trabalho de Ksepka e Paul Brinkman, da mesma universidade - que permite saber mais sobre a diversidade dos pinguins na Pré-história e sobre a evolução destes animais -, baseou-se na reconstrução de Kairuku a partir de um esqueleto de um pinguim-rei (Aptenodytes patagonicus), como modelo, e dos ossos de dois exemplares distintos destas aves antigas.

O primeiro fóssil de pinguim Kairuku foi encontrado pelo zoólogo e paleontólogo neozelandês Brian J. Marples na década de 40 do século XX. Mas estes ossos não foram reconhecidos como sendo de uma nova espécie porque não estavam bem preservados e apenas incluiam algumas partes dos ossos das asas. Mais tarde, em 1977, Ewan Fordyce, paleontólogo da Universidade de Otago, acabou por descobrir esqueletos muito completos nas margens do rio Waihao, na região de Canterbury, na ilha Sul da Nova Zelândia. De acordo com Ksepka, "estes fósseis estão entre os fósseis de pinguins mais completos alguma vez encontrados".

Em 2009 e 2011, Ksepka e Brinkman viajaram até à Nova Zelândia para ajudar na reconstrução do pinguim. Ksepka interessou-se no fóssil porque a forma do corpo é diferente de qualquer pinguim conhecido, vivo ou extinto. Também o interessou a diversidade de espécies de pinguins que viveram onde hoje é a Nova Zelândia durante o Oligocénico, aproximadamente há 25 milhões de anos. “A localização era muito boa para os pinguins, em termos de alimentação e de segurança. A maior parte da Nova Zelândia estava debaixo de água naquela altura, deixando pequenas massas de terra isoladas, que mantinham os pinguins seguros em relação a potenciais predadores e que lhes providenciavam alimento abundante”, disse Ksepka.

Ksepka espera que a reconstrução de Kairuku – um trabalho publicado na revista Journal of Vertebrade Paleontology - dê mais informações a outros paleontólogos sobre os fósseis encontrados na Nova Zelândia e que ajude a aumentar o conhecimento sobre as espécies de pinguins. “Esta espécie dá-nos uma imagem mais completa destes pinguins gigantes e pode ajudar-nos a determinar qual a sua distribuição geográfica durante o período do Oligocénico”, acrescentou o investigador.

Vídeo - Sócrates: Filosofia antiga

Notícia - O mistério da antimatéria



A física diz-nos que, após o Big Bang, foi criada para cada partícula de matéria o seu reverso, a antimatéria. Todavia, ambas estavam destinadas a aniquilar-se mutuamente e a voltar ao estado de energia. Se assim foi, porque é que o Universo visível é feito de matéria? Seja em terra ou no espaço, os projectos para desvendar este mistério procuram respostas. Entre eles, há quem fale na língua de Camões.

Existe uma pergunta fundamental a que a ciência está a tentar responder. Uma dúvida tão antiga como o Big Bang e que data de há 13,7 mil milhões de anos atrás. Porque é que existimos? Porque é que existem planetas, estrelas, galáxias e até a própria revista que o leitor segura na mão?

Essencialmente, tudo isto se deve à existência de matéria suficiente, no Universo, para os formar, a qual é composta por átomos. Por sua vez, os átomos são constituídos por partículas mais pequenas, ou seja, electrões, protões e neutrões. Mas há mais, pois os próprios protões e neutrões são constituídos por partículas ainda mais diminutas, os quarks. Ao combinar tudo isto entre si, conseguimos obter todos os elementos da tabela periódica. Embora pareçam suficientes para dar existência ao Universo, a verdade é que este jardim zoológico de partículas e elementos ainda não está completo. Faltam as antipartículas.

Quando o Universo nasceu, todo ele era feito de energia pura e, nos seus primeiros momentos, essa energia começou a fabricar pares de partículas e antipartículas. Quer isto dizer que para cada partícula existia o seu oposto. No entanto, estes pares aniquilavam-se mu­tua­mente, voltando a produzir energia. Por sua vez, à medida que o Cosmos se expandia e arrefecia, a densidade da sua energia decaía.

Contudo, as teorias actuais preconizam que, se o Universo tivesse algumas centenas de milhares de anos, todas as partículas (toda a matéria) teriam regressado à forma de energia, mas uma energia cuja temperatura seria demasiado baixa para a criação de mais pares de partículas. Entretanto, as partículas e as antipartículas já se teriam aniquilado por completo, dado que tanto uma como a outra eram geradas em iguais quantidades.

Se assim foi, de onde veio a matéria que nos compõe? E já agora, o que aconteceu à anti-matéria que está em falta? Parece que as teorias têm algumas pontas soltas no que a este assunto se refere. Daí que se queira investigar melhor para tentar saber o que realmente sucedeu.

As antipartículas têm a mesma massa que a suas irmãs partículas, mas distinguem-se por ter cargas opostas. Por exemplo, o electrão, que é uma partícula elementar (indivisível) e que se caracteriza por ter uma carga negativa, tem como reverso uma antipartícula que se chama “positrão”, a qual tem uma carga de valor oposto, quer dizer, uma carga positiva. As partículas compostas, como o protão (carga positiva) e o neutrão (carga neutra), também têm o seu reverso, o antiprotão e o antineutrão, respectivamente. Uma vez que os protões e os neutrões não são partículas elementares, já que são formados por quarks, as suas antipartículas vão ser constituídas por antiquarks. Mas passemos às evidências.

“Sabemos que existe no Universo antimatéria porque conhecemos os antiprotões e os positrões, duas partículas que detectámos e estudámos através dos raios cósmicos que atravessam a nossa atmosfera e em experiên­cias com os aceleradores de partículas do CERN.” A explicação é dada por Luísa Arruda, investigadora portuguesa do Laboratório de Instrumentação e Física Experimental de Partículas (LIP), que participa no projecto AMS, um detector que vai ser lançado para o espaço com o intuito de encontrar indícios cósmicos de antimatéria.

No entanto, estamos num terreno bastante pantanoso, pois “não há medidas que nos indiquem a existência, no Universo, de quantidades suficientes de antipartículas”, salienta a investigadora. E já agora, será que existe antimatéria em formas mais complexas, como o anti-hélio ou o anticarbono? A nível experimental e conceptual, os físicos já conseguiram obter evidências de que a antimatéria pode existir, ou pelo menos ser fabricada artificialmente, mas encontrá-la de modo natural já é uma situação bem diferente.

O brasileiro Claudio Cesar fez parte da equipa de investigadores do CERN que conseguiu alcançar, recentemente, o extraordinário feito de criar átomos de anti-hidrogénio e fazê-los perdurar algum tempo, não deixando que se aniquilassem de imediato. Mas uma coisa é criar antimatéria, outra é encontrá-la no seu estado original, tal como surgiu após o Big Bang. É por isso que Claudio Cesar avisa que “não existe, ao que parece, nenhuma antimatéria primordial, pois toda a que foi criada no início do Universo foi destruída, originando o mar de radiação (fotões/luz) que nos cerca”.

Para além da mão humana (leia-se: dos centros de investigação), há ainda eventos cósmicos que podem desencadear a criação de antimatéria. Por exemplo, “quando ocorre uma supernova, existe energia suficiente para a criar, a qual se aniquilaria e emitiria raios gama”, constata o cientista. Contudo, ainda não foram detectados possíveis raios gama provenientes da aniquilação de antimatéria primordial. Porém, seja em centros de investigação de partículas ou com a ajuda de detectores ultra-sensíveis que flutuam no espaço em busca de raios cósmicos suspeitos, os cientistas não parecem querer baixar os braços enquanto não cortarem as pontas soltas dos modelos teóricos.

Na região de Genebra, na fronteira da Suíça com a França, está sediada a Organização Europeia para a Investigação Nuclear (CERN), responsável por uma das maiores experiências da história da ciência, o grande acelerador de partículas LHC (Large Hadron Collider). Além de estudar os primórdios do Universo, os laboratórios do CERN também conseguem criar antimatéria, usando os aceleradores de partículas para simular as condições de alta energia que existiram pouco depois do Big Bang.

Foi através deste género de experiências que os físicos obtiveram a certeza de que, cada vez que a energia é transformada em matéria, na forma de quarks ou electrões, são igualmente produzidos antiquarks e positrões. Aliás, “a antimatéria é produzida no CERN há dezenas de anos, de forma rotineira”, confirma Clara Gaspar, a portuguesa que é responsável pelo sistema de controlo do LHC beauty experiment, mais conhecido por LHCb, um dos quatro detectores do LHC e aquele que se encontra a estudar todo este mistério.

Basicamente, “o LHCb está a estudar as diferenças entre a matéria e a antimatéria, em busca da razão pela qual só encontramos a primeira”. Hoje em dia, a maior parte dos cientistas acredita que o desequilíbrio que vemos entre a matéria e o seu oposto é o reflexo de uma diferença, muito subtil, entre as duas. Por exemplo, uma pequena variação na taxa de decaimento de cada uma pode explicar porque é que conseguiu prevalecer uma pequena, mas muito significante, fracção de matéria. Todavia, também pode ter existido um outro mecanismo, desconhecido, que as impediu de se aniquilarem por completo. O grande objectivo do LHCb, assim sendo, está na busca das pequeníssimas assimetrias que levaram à criação de tudo o que nos rodeia.

Para atingir esse fim, a famosa equação de Einstein (E=mc2) é aqui aplicada em toda a sua beleza. Ao provocar no CERN a colisão entre protões, obtém-se energia, a qual dá depois origem à “geração de novas partículas”. “Em cada colisão, são geradas partículas acompanhadas das suas antipartículas, e aquilo que o LHCb pretende estudar em detalhe é a produção de dois tipos específicos de partículas, os quarks b e os antiquarks b, para detectar possíveis diferenças”, salienta Clara Gaspar.

Neste momento, o LHCb ainda está numa fase inicial de compreensão dos dados adquiridos, pois o grande acelerador de partículas só entrou em actividade no final de 2009. Com estes dados, e outros mais que se irão acumular nos próximos anos, espera-se que a experiência “possa contribuir com novas descobertas”. Para 2016, está programada uma actualização do aparelho, “com a nova versão a ser composta por detectores ainda mais sofisticados e de maior precisão, o que permitirá a aquisição de um maior número de dados e o estudo da desintegração de outros tipos de partículas, como os quarks c e os antiquarks c”.

Clara Gaspar trabalha no CERN há quase 25 anos, sendo um dos poucos portugueses que integram o projecto LHCb. Sob o seu olhar atento está o sistema de controlo do detector, o qual “funciona 24 horas por dia, com dois operadores sempre presentes na sala de controlo”. Todo o cuidado é pouco: “O mínimo problema na experiência tem de ser imediatamente detectado e corrigido, para não se perderem dados.” A quantidade de informação adquirida pelo LHCb assim o justifica: dez milhões de colisões por segundo, detectadas através de centenas de milhares de canais electrónicos, controlados por 200 computadores a funcionar em paralelo, cada um dedicado a um subsistema do detector. Uma grande responsabilidade.

Lançar um detector de raios cósmicos para o espaço, acoplá-lo à Estação Espacial Internacional (ISS, na sigla inglesa) a 300 quilómetros de altura da Terra e esperar que, ao fim de três anos, a antimatéria tenha dado ares da sua graça. Eis um dos dois objectivos do projecto AMS (para além do estudo da matéria escura), do qual fazem parte investigadores de 56 instituições e de 16 países. Entre eles, encontram-se três cientistas do LIP.

“O projecto AMS data de 1994 e, basicamente, é um detector de partículas construído muito à semelhança dos detectores que encontramos no CERN”, sintetiza Luísa Arruda. “De modo grosseiro, podemos dizer que é parecido com o LHCb.” Para cumprir a sua missão, irá detectar os “traços” dos raios cósmicos que o atingem, os quais, segundo a cientista do LIP, darão a direcção das partículas que aí chegam. “O AMS tem um sistema que permite medir a velocidade dessas partículas e fazer a identificação da sua carga.”

Uma vez medidos com exactidão os raios cósmicos, os seus espectros serão estudados, para identificar as partículas que os constituem. Um dos principais objectivos passa pela tentativa de identificação de núcleos atómicos, como o anti-hélio, para que possam corroborar a existência de antimatéria no Cosmos. “Se medirmos esses núcleos mais pesados, nem que seja apenas um, teremos a evidência de que poderão existir estruturas como anti-estrelas, algures no nosso Universo, que estejam a passar por um período de nucleossíntese. Ou seja, no centro dessas anti-estrelas estariam a ser formados todos os anti-elementos da tabela periódica.” Seria o sinal de que poderia existir um outro mundo, com propriedades simétricas das do nosso.

No entanto, antes de sonhar com essas possíveis descobertas, ainda falta lançar o detector para o espaço e juntá-lo à ISS, algo que está previsto para 1 de Abril de 2011, a bordo do vaivém espacial Endeavour. Uma vez que é mais pequeno do que os seus grandes irmãos do CERN, o detector AMS foi construído com uma série de constrangimentos. Apesar disso, trata-se de uma experiência que vai ser colocada no espaço. Portanto, todo o material tem de estar preparado para operar nessas exigentes condições e lá permanecer durante três anos, sem qualquer manutenção humana.

A colaboração do LIP com este projecto já dura há mais de dez anos, sendo actualmente coordenada por Fernando Barão, do Instituto Superior Técnico. Os três cientistas do LIP trabalham no subdetector RICH (Ring Imaging Cherenkov), responsável por fornecer as medidas mais precisas da velocidade e carga eléctrica das partículas detectadas. “Em colaboração com o restante grupo do AMS, nós desenvolvemos e implementamos algoritmos que vão fazer a reconstrução das variáveis de velocidade e carga, e somos responsáveis pela manutenção e controlo da sua performance.”

Se pensa que a antimatéria não tem qualquer utilidade prática e imediata, o melhor é desistir da ideia. Na medicina, ela já é usada para lutar contra o cancro, nomeadamente através do scanner PET (Positron Emission Tomography), uma tecnologia que faz tomografias através da emissão de positrões. Este tipo de exames “é do mais sensível que existe para a detecção do cancro”, refere Claudio Cesar.

Na sua essência, esta tecnologia funciona através da injecção, na corrente sanguínea do paciente, de uma substância radioactiva previamente misturada com glicose (açúcar). A substância concentra-se em maiores quantidades na zona afectada pelo tumor, dado que é aí que o corpo consome maiores quantidades de açúcar. Ao chegar aos tecidos tumorais, os átomos da substância radioactiva, já de si instáveis, vão decair em positrões. Ao entrar em contacto com o tecido do corpo (com a matéria) estes positrões são aniquilados, libertando fotões que são detectados para construir uma imagem tridimensional e precisa do tumor (para os progressos portugueses nesse campo, ver Antimatéria Salva-vidas, SUPER 148).

Querendo ir mais longe, algumas equipas estão a estudar a possível utilização de antiprotões para matar os próprios tumores cancerígenos, fazendo-os actuar como uma espécie de “mini-bomba”. Além do mais, “o anti-protão teria a vantagem de poder fornecer uma imagem tridimensional de onde se está a matar o tumor”, comenta o físico brasileiro. Todavia, esta possibilidade “ainda está muito longe de se tornar uma realidade”.

Enquanto fonte de energia, foi a ficção, através da série Star Trek, que popularizou o uso de antimatéria como combustível para as naves espaciais. Saltando para o campo do real, a verdade é que “sempre esteve no website da NASA que a antimatéria seria o único combustível possível para se fazer uma viagem além do Sistema Solar, por ser o mais eficiente que existe”, revela ainda Claudio Cesar. “Se misturarmos positrões com electrões, obtemos energia pura, não restando nenhuma massa. O problema é que seria preciso gastar muito mais energia para criar a antimatéria do que a que depois se retiraria dela, pois o processo para a sua criação ainda é muito ineficiente.” Ou seja, o melhor é especular por um tal reactor para daqui a muito tempo.

Por agora, há que esperar pelas possíveis revelações de projectos como o LHCb ou o AMS. Talvez se descubra que, afinal existem estrelas, planetas e galáxias inteiras feitas de antimatéria. Todavia, se isso acontecer, não se esqueça de seguir o conselho do físico britânico Stephen Hawking: “Se encontrar o seu anti-eu, não lhe aperte a mão, pois desapareceriam os dois num grande clarão de luz.”

Em Novembro, uma equipa de investigadores do CERN, ligados ao projecto ALPHA, anunciou a invulgar produção de milhares de anti-átomos de hidrogénio. Mas o que saltou à vista foi o aprisionamento, pela primeira vez, de 38 desses anti-átomos durante um décimo de segundo, sem os deixar aniquilar-se.

Criar átomos de antimatéria não é novidade, pois em 1995, e outra vez no CERN, foi gerado o primeiro anti-átomo, de anti-hidrogénio. O problema é que estes elementos desaparecem, num flash de luz, assim que são gerados. Porém, ficava aberta a porta para fazê-los perdurar mais tempo. Em 2002, mais um passo foi dado nesse sentido, ao produzir-se anti-hidrogénio em grandes quantidades.

A preferência por este elemento é evidente, pois o seu reverso, o bem conhecido hidrogénio, é o átomo mais simples que a Natureza concebeu: somente um protão no núcleo e um singelo electrão a rodeá-lo. Bastava, por isso, criar a antipartícula de cada um deles e juntá-los, impedindo que desaparecessem de imediato.

Entre os investigadores que recentemente fizeram história, esteve o físico brasileiro Claudio Cesar, que explica como tudo foi feito: “O que a física faz hoje em dia é alquimia. Através da fórmula de Einstein, sabemos que a energia pode ser convertida em massa e vice-versa”, salienta. “O antiprotão que é feito no CERN é criado através de um acelerador de protões. Estes são acelerados através de energias bastante altas, sendo depois lançados contra um alvo metálico. Ao colidir com ele libertam energia, criando, por exemplo, o antiprotão.”

Os positrões foram produzidos de um modo mais fácil. O CERN tem acesso a fontes radioactivas de sódio-22, uma substância que, quando entra no processo de decaimento radioactivo (perda de energia e consequente transformação noutro elemento), emite grandes quantidade de positrões.

Uma vez produzidos os dois elementos do hidrogénio, é preciso combiná-los. Primeiro, os antiprotões criados são desacelerados, de modo a perderem energia. Enquanto uma grande parte deles acaba por se aniquilar, uma pequena fracção é capturada numa garrafa de vácuo, através de campos eléctricos e magnéticos. Quando os antiprotões são presos, a sua energia ainda é de milhões de Kelvin (o equivalente a outros milhões de graus Celsius). Sozinhos no vácuo, são depois misturados com electrões. Como o antiprotão não é a antipartícula do electrão, não ocorre um aniquilamento, mas, devido à troca de energia que se dá entre os dois, os antiprotões acabam por arrefecer até perto dos cem Kelvin, uma temperatura bastante baixa (cerca de 170 ºC negativos).

Depois de arrefecerem ainda mais, até aos 40 Kelvin, entram em cena os positrões. Estes, que também foram aprisionados com campos eléctricos e magnéticos, são enviados, em conjunto com os antiprotões, para uma espécie de “armadilha” que também usa o mesmo género de campos. Seguem-se as partes mais delicadas. “Usando outra técnica sofisticada, conseguimos enviar lentamente os antiprotões para dentro da amostra de positrões, de modo a que possam colidir e formar o anti-átomo”, resume Claudio Cesar.

Para quase finalizar, é importante a utilização de um novo tipo de armadilha, desta vez para prender o anti-átomo neutro que vai formar-se. Neste caso, devido à carga neutra que comporta, é somente usado um campo magnético. O último passo envolve “juntar todas as amostras e enviar-lhes um pulso eléctrico que retira todos os antiprotões e positrões, de modo a restarem apenas os anti-átomos neutros que foram aprisionados”.

A operação revela-se complicada e difícil, “porque as amostras usadas estão a algumas dezenas de Kelvin, mas só conseguimos aprisionar os átomos que têm uma energia abaixo de meio Kelvin”, um valor que ronda o zero absoluto e as temperaturas mais baixas que existem no Universo.

Para que os anti-átomos sejam detectados e a experiência um sucesso, basta desligar a armadilha magnética. Isto leva a que os anti-átomos fiquem livres e possam colidir com as paredes (a matéria) do experimento, aniquilando-se em partículas de piões que são depois detectados, com precisão, numa imagem a três dimensões.

O período durante o qual o anti-hidrogénio ficou aprisionado (um décimo de segundo) parece insignificante, embora seja longo no que concerne à antimatéria. “Isso já é um tempo bastante razoável para fazer algumas experiências”, cita o investigador. No futuro, quando se aumentar ainda mais o tempo de aprisionamento, já será possível testar com rigor o modelo padrão da física das partículas, o qual defende que as leis da física devem ser rigorosamente iguais para a matéria e para a antimatéria. “Esta simetria é extremamente importante, porque está na base do modelo padrão. Se a quebrarmos, numa futura investigação, poderá haver sérias consequências para a física. Seria uma queda muito grande de um paradigma.”


J.P.L. - SUPER 153 - Janeiro 2011

Recomendamos ...

Recomendamos ...