Arquivo da categoria: Ciência

8441 – Mega Notícias – Eletromagnetismo limpa canos


Na Inglaterra, a eletrônica funciona até com água. Scalewatcher, um invento holandês, é um desentupidor que não fura canos se molha. Sua especialidade é tirar as crostas de carbonato de cálcio que se grudam no interior dos canos, impedindo a passagem da água.
A bobina é colocada no cano principal de entrada de água na casa, e gera um sinal eletromagnético que altera as propriedades elétricas das moléculas de carbonato de cálcio. O campo eletromagnético faz os cristais crescerem e neutraliza suas cargas elétricas. Dessa forma, ficam suspensas na água e não aderem mais ao cano, deixando o caminho livre para a água.

8440 – Quantas dimensões existem no Universo?


No início do século 20, a resposta para essa pergunta era tão óbvia quanto velha. Euclides, lá na Grécia antiga, já havia sacado que são 3 as direções possíveis para qualquer movimento: para cima (ou para baixo), para a esquerda (ou para a direita) e para a frente (ou para trás). Portanto, o espaço possui 3 dimensões.
Até que, em 1905, Einstein começou a bagunçar tudo. Nesse ano, ele fez 3 descobertas importantes e uma delas demonstrava que, ao contrário do que dizia a física até então, o espaço e o tempo não eram fixos e imutáveis. Na verdade, eles eram flexíveis e manipuláveis, de modo que era possível, sob certas condições, encolher o tamanho de um centímetro ou esticar a duração de um segundo. E o pior: a modificação sobre um estava atrelada à transformação do outro. Ou seja: o tempo era, do ponto de vista físico, indistinguível do espaço.
Com isso, deixou de ser possível falar em 3 dimensões – já que o tempo não podia mais ser colocado em uma gaveta distinta da das outras dimensões. Ficou claro que tudo era uma coisa só: um continuum espaço-tempo, como os físicos hoje adoram dizer.
Até aí, bastava incorporar o tempo, que até Euclides conhecia, à lista das 3 dimensões existentes. Mas Einstein fez questão de complicar as coisas quando, em 1915, conseguiu aprofundar sua Teoria da Relatividade. Ao estudar os movimentos acelerados, ele percebeu que a gravidade era nada menos do que uma distorção na geometria das 4 dimensões. Saía de cena a geometria euclidiana e vinha em seu lugar uma geometria não-euclidiana (em que a soma dos ângulos de um triângulo não necessariamente dá 180 graus e linhas paralelas podem se cruzar).
Não satisfeito em pôr de cabeça para baixo a geometria básica do Universo, Einstein decidiu que o passo seguinte era unificar a física toda num só conjunto de equações. Naquela época, em que ninguém conhecia ainda as forças que agiam dentro dos átomos, a tão sonhada unificação era apenas uma questão de costurar a relatividade (que explicava a gravidade) e o eletromagnetismo (responsável, como você pode imaginar, pelos fenômenos elétricos e magnéticos, ambos relacionados à partícula que aprendemos a chamar de elétron).
Dimensões ocultas
Einstein não foi muito adiante com seus esforços, mas outros foram inspirados por sua busca. Entre eles, dois se destacaram muito cedo: Theodor Kaluza e Oskar Klein. Trabalhando individualmente em meados da década de 1920, os dois perceberam que, se a relatividade geral fosse reescrita para acomodar 5 dimensões, em vez de 4, as equações do eletromagnetismo brotavam naturalmente dela.
Mas tinha um probleminha: até onde se pode ver, o Universo não tem 5 dimensões, apenas 4. Klein, em 1926, sugeriu que não podíamos ver a 5a dimensão porque ela estaria enrolada em si mesma, como um tubinho minúsculo.
De lá para cá, outras forças que agiam no interior do átomo foram descobertas e, por algum tempo, a idéia de dimensões extras foi esquecida. Foi então que surgiu a Teoria das Supercordas – a noção de que as partículas que compõem o Universo poderiam ter a forma de cordas vibrantes (com cada vibração dando as características da partícula). Os físicos desconfiam que, a partir dessa premissa, seria possível descrever todos os componentes da natureza numa única teoria – mas só se o Cosmos possuísse nada menos que 26 dimensões.
Uma dimensão enrolada escondida, vá lá. Mas quem vai acreditar em 22 dimensões escondidas? Como explicar que 4 dimensões são aparentes e as outras todas ficam ocultas? Pois é, como os próprios físicos achavam essa ideia difícil de engolir, começaram a trabalhar numa forma de reduzir o número de dimensões necessárias. Hoje eles já conseguiram fechar com 10 ou 11 dimensões – e muitos pesquisadores acreditam que o número não vai cair muito mais que isso. Ou seja, se a Teoria das Supercordas estiver certa, o Universo deve estar cheio de dimensões enroladas e, portanto, invisíveis.

8438 – De ☻lho no Mundo – Zaire, um exemplo de degradação social


Então submetido à ditadura de Mobutu, a partir de 1965, o país compreende 450 línguas e tribos. Em 1991, a renda de lá era de 92 dólares por ano, muito abaixo dos 5.370 dólares pelos quais o Banco Mundial mede o limite da pobreza.
Uma obra ilustrada de 180 páginas chegou a custar 1.250.000 zaires e um operário não ganhava mais que 30 a 50 mil por mês. O país é ex colônia belga, independente desde 1960. O regime pós-colonialista levou o país à beira da falência e por isso, o trono de Mobutu, que parecia intocável, começou a ruir.

8437 – Medicina – A Insulina via oral


A insulina oral é um sonho antigo dos diabéticos e, desde 1994, várias empresas de todo o mundo têm tentado produzi-la. O problema é que a insulina é uma proteína e o estômago está preparado para digerir as proteínas. Mas depois de vários anos de investigação, a Diabetology anunciou que conseguiu envolver a insulina numa cápsula resistente aos ácidos estomacais, impedindo a sua destruição e permitindo que passe intacta para o intestino delgado. Aí, a cápsula dissolve-se e a insulina é absorvida através das paredes do intestino. A insulina é, então, transportada para o fígado, onde é armazenada e depois distribuída pelo corpo.
Desta forma, a distribuição da insulina também é mais parecida com aquilo que acontece num corpo saudável – onde é o pâncreas a fonte de insulina, libertando-a à medida que é necessária. Uma das vantagens da pílula será, portanto, evitar “picos” de insulina no sangue. A cápsula também é muito mais fácil de administrar, sobretudo às crianças, que reagem mal às injecções ou à recente insulina inalável.
A Diabetology apresentou à Associação Americana de Diabetes os resultados preliminares de uma experiência envolvendo 16 pacientes com diabetes de tipo 2 (a mais comum e que se desenvolve, geralmente, na meia idade), mostrando que tomar insulina por via oral deverá possibilitar um maior controle dos sintomas, ao mesmo que melhorará a qualidade de vida dos pacientes.
Ian Frame, director de investigação da Associação de Diabetes do Reino Unidos, afirmou publicamente que esta pesquisa é interessante mas que deve ser encarada com reservas.

8436 – Maior barco solar do mundo estuda efeito das mudanças climáticas no oceano


barco-solar-turanor-

O maior barco movido a energia solar do mundo chegou a Nova York como parte de uma expedição científica para estudar o efeito das mudanças climáticas no planeta. O Turanor PlanetSolar é uma embarcação suíça de 35 metros de comprimento dotado de uma imensa cobertura de painéis fotovoltaicos, que, quando abertos, fazem o barco chegar a 23 metros de largura.
Em maio de 2012, ele se tornou o primeiro veículo movido a energia solar a dar a volta ao mundo, após uma grande viagem de 584 dias e mais de 60.000 quilômetros percorridos. Agora, ele inicia uma nova etapa de sua missão, na qual irá estudar os efeitos do aquecimento global sobre a Corrente do Golfo, corrente marinha localizada no norte do Oceano Atlântico.
O PlanetSolar zarpou do porto de La Ciotat, no sudeste de França, e alcançou Miami, no sudeste dos Estados Unidos, no início de junho. A expedição deve continuar até agosto, com escalas em Boston, no nordeste dos Estados Unidos, em San Juan de Terranova, no Canadá, em Reykjavik, capital da Islândia, e, finalmente, Bergen, na Noruega. “Nosso objetivo é entender as complexas interações entre física, biologia e clima para ajudar os cientistas a aperfeiçoarem as simulações climáticas, especialmente no que diz respeito às trocas de energia entre o oceano e a atmosfera”, afirma Martin Beniston, pesquisador da Universidade de Genebra, na Suíça, e chefe da missão.

Proeza tecnológica
A Corrente do Golfo tem origem no Golfo do México e desloca uma grande massa de água quente da região para o norte do Atlântico, assegurando à região oeste da Europa um clima mais quente do que o esperado para sua grande latitude. Além disso, ela impede uma excessiva aridez nas zonas tropicais americanas por onde passa, como o México e as Antilhas.

O objetivo da tripulação do barco é coletar informações sobre os efeitos das mudanças climáticas ao longo dos trechos atingidos pela Corrente do Golfo. “Vivo na Bretanha, no oeste da França, e estamos muito preocupados. Todos sabemos que se a Corrente do Golfo mudar, mesmo que seja só um pouquinho, nosso clima se deteriorará muito”, afirma Gerard D’Aboville.
O Turanor PlanetSolar é considerado uma verdadeira proeza tecnológica, com sua cobertura de mais de 515 metros quadrados de painéis solares, peso de 90 toneladas e velocidade de até 26 quilômetros por hora. Durante toda sua operação, ele não requer gasolina e não emite gases de efeito estufa. “Como o barco é impulsionado por energia solar, não emite nenhuma substância contaminante que possa distorcer o material coletado na travessia de 8.000 quilômetros entre Miami e Bergen”.

8435 – Nasa lança programa para rastrear e capturar asteroides


asteroide-impacto-

A Nasa anunciou um novo programa focado na descoberta e estudo de asteroides que possam ameaçar a humanidade. O projeto deve contar com a ajuda de outras agências governamentais, da indústria, da comunidade científica e até de cientistas amadores.

O projeto surge como um complemento para outra missão anunciada recentemente pela Nasa, de uma nave não tripulada que irá capturar um asteroide e rebocá-lo até a órbita lunar, onde astronautas poderão estudá-lo. “A Nasa já trabalha no acompanhamento de asteroides que poderiam representar um perigo para o nosso planeta. Apesar de termos encontrado 95% dos maiores em órbita próxima à Terra, temos que detectar a todos”, disse Lori Garver, administradora adjunta da Nasa.
A iniciativa faz parte de uma série de metas chamada Grandes Desafios, traçadas pela Casa Branca para estimular a inovação. “Esse Grande Desafio é focado em detectar e caracterizar asteroides e aprender a lidar com esses riscos potenciais. Nós também vamos aproveitar a participação do público, com sua capacidade de inovação, e dos cientistas amadores, para ajudar a resolver este problema global”.
Há nos arredores da Terra uma grande variedade de asteroides. A Nasa já detectou quase todos maiores que um quilômetro de diâmetro — os mais perigosos. Foi um desses, por exemplo, que causou a extinção dos dinossauros ao colidir com o planeta há 65 milhões de anos. Os cientistas afirmam que uma colisão com um destes grandes objetos é muito rara na história da Terra e nenhum dos já detectados representa um risco no futuro próximo.

Embora os grandes asteroides sejam facilmente identificáveis, detectar os menores,
e mais numerosos — é mais difícil. Segundo a Nasa, há provavelmente 25.000 asteroides com pelo menos 100 metros de diâmetro ao redor da órbita terrestre, capazes de destruir até uma cidade. Desses, só foram detectados 25%.
A caça de asteroides ganhou maior evidência desde 15 de fevereiro, dia em que um destes objetos passou muito perto da Terra, e outro, de 15 metros de diâmetro, caiu na Rússia. Este último, ao se desintegrar, provocou uma onda de choque que quebrou muitas janelas e feriu centenas de pessoas.

8434 – Marte tinha atmosfera rica em oxigênio há quatro bilhões de anos


marte-atmosfera-620-size-598

Muito do que se sabe sobre a composição química e a evolução de Marte vem do estudo dos meteoritos que se formam no planeta e acabaram caindo na Terra. Porém, análises de rochas da superfície de Marte feitas pelo robô Spirit revelaram que elas têm uma composição química muito diferente: amostras da cratera Gusev têm cinco vezes mais níquel do que os meteoritos.
Um estudo publicado nesta quarta-feira na revista Nature pode ajudar a entender melhor esse fenômeno. Pesquisadores da Universidade de Oxford, no Reino Unido, sugerem que as diferenças encontradas entre os meteoritos e as rochas examinadas pelo robô Spirit, na superfície do planeta, podem ser explicadas pelo fato de que Marte possuía uma atmosfera rica em oxigênio quatro bilhões de anos atrás – mais de um bilhão de anos antes de a Terra desenvolver uma atmosfera rica nesse tipo de gás.
Os dois tipos de rochas são basaltos, formados a partir do magma de vulcões, mas os meteoritos são muito mais jovens, de 180 milhões a 1,4 bilhão de anos, enquanto as rochas da cratera Gusev têm mais de 3,7 bilhões.

Ambiente rico em oxigênio
A quantidade de níquel presente nas rochas é um dos indicadores dos níveis de oxigênio presentes na atmosfera. Isso porque, quando há pouco oxigênio na atmosfera, o níquel fica estável, e não é eliminado junto com o magma, de forma que fica presente em menor quantidade nas rochas que se formam a partir do resfriamento desse magma. Quando há uma alta concentração de oxigênio na atmosfera, porém, o níquel fica instável. Dessa forma, ele derrete mais facilmente e é expelido junto com o magma, indo parar em maior quantidade na composição das rochas.
Os pesquisadores sugerem que a matéria presente na superfície, rica em oxigênio, teria sido levada para o interior do planeta, em um processo conhecido como subducção, no qual parte da superfície é “puxada” para o interior. De acordo com Wood, esse processo é semelhante ao que acontece na Terra, em zonas nas quais as placas tectônicas se infiltram umas sob as outras. Essa matéria seria, então, trazida de volta à superfície durante erupções vulcânicas há quatro bilhões de anos. Os meteoritos, por sua vez, são rochas vulcânicas mais recentes, que se originaram de partes mais profundas do planeta e, por isso, sofreram menos influência desse processo.

A presença de oxigênio na atmosfera, porém, não é um indício definitivo de que tenha existido vida no planeta vermelho. Os pesquisadores acreditam que, na Terra, o oxigênio da atmosfera tenha se formado a partir da ação de microrganismos fotossintetizantes, mas é possível que em Marte esse gás tenha se formado a partir de uma reação química na atmosfera.

8433 – Noções Básicas de Mecânica – A Alavanca


alavanca2

Na física, a alavanca é um objeto rígido que é usado com um ponto fixo apropriado (fulcro) para multiplicar a força mecânica que pode ser aplicada a um outro objeto (resistência). Isto é denominado também vantagem mecânica, e é um exemplo do princípio dos momentos. O princípio da força de alavanca pode também ser analisado usando as leis de Newton. A alavanca é uma das 6 máquinas simples.

A relação matemática entre a potência e a resistência, em qualquer tipo de alavanca, é assim estabelecida: chamamos de braço de potência (a) a distância entre a potência e o ponto de apoio da alavanca e o braço de resistência (b) a distância entre a potência e o ponto de apoio. Em toda a alavanca, o produto da potência (p) por seu braço (a) é igual ao da resistência (r) pelo seu braço (b).

Fórmula: P.a = R.b

A roldana é uma máquina feita por um disco que gira em torno de um eixo. O disco possui uma canelura na borda por onde passa uma corda. A roldana muda de direção ou sentido em que se exerce uma força. É muito mais cômodo fazer uma força no mesmo sentido da gravidade do que no sentido oposto. Numa roldana simples, a potência é igual à resistência.

O sarrilho é uma máquina formada por um cilindro que pode ser girado de um eixo acionado por uma manivela. O cilindro traz uma corda enrolada e ao girar ele eleva ou abaixa o corpo que estiver preso a ela. No sarrilho, o produto da potência pelo comprimento da manivela é igual ao produto da resistência pelo raio do cilindro.

Fórmula
P.r² = R.r1

O plano inclinado é uma superfície plana formando um ângulo com o solo que é empregada para elevar corpos, seja deslizando-os, seja rolando-os. Os egípcios já o utilizavam no transporte e elevação das grandes pedras na construção das pirâmides. Num plano inclinado, o produto da potência pelo comprimento do plano é igual ao produto ao produto da resistência. Ou seja, o peso do corpo, pela altura do plano inclinado.

Fórmula
P.L = R.h

A roda hidráulica
A água em movimento impulsiona as pás de uma roda, seja caindo sobre elas, seja arrastando-as, provocando o movimento giratório da roda. No peincípio, as rodas hidráulicas eram utilizadas para elevar a água destinada à irrigação e, mais tarde, para mover mecanismos nas fábricas de tecido ou papel e para trabalhar o ferro. As primeiras rodas hidráulicas trabalhavam de forma muito limitada porque não possuíam engrenagens, mas à medida que foram sendo aperfeiçoadas, permitiram um melhor aproveitamento da energia.

Os moinhos de vento foram utilizados com fins similares aos da roda hidráulica. Neles, as pás da roda são presas ao eixo. O vento pressiona as pás e elas se movem, fazendo girar a roda.

8432 – Novo Avô dos Macacos?


Os lêmures são pequenos animais de olhos grandes, que têm um significado muito especial para o homem. O motivo é que os ancestrais dos lêmures foram os primeiros animais a exibir as formas características dos primatas, grupo que inclui homens, chimpanzés e gorilas. Isso tudo aconteceu há cerca de 40 milhões de anos – ou pelo menos essa era a data fixada até pouco tempo atrás. Agora, ela está sendo revista devido à descoberta do Shoshonius cooperi, cujos fósseis datam de 50 milhões de anos. Seus ossos sugerem que os primatas são mais antigos e tiveram uma origem bem mais complicada do que se pensa. Nessa época, a Terra era mais quente e as grandes florestas ocupavam áreas maiores que as atuais, isso favorecia os animais que vivem em árvores. É provável que nesse período tenham se desenvolvido inúmeras variantes de primatas ( a maior parte já extinta). O Shoshonius, por exemplo, é um tersióide, animal muito semelhante aos lêmures. Tanto que já não se sabe se o ramo dos símios – que inclui macacos e homens – derivou de um ou outro tipo de ancestral.

A palavra lémure deriva do latim “lemures”, que significa “espírito(s) da noite” ou “fantasma(s)” e deve-se provavelmente ao fato de estas criaturas serem brancas e notivagas, perambulando pela noite e fazendo os seus chamamentos.
Os lêmures só são encontrados na ilha de Madagascar e em algumas pequenas ilhas circundantes como as Comores (embora provavelmente tenham aqui sido introduzidos por humanos). Indícios fósseis indicam que eles atravessaram o mar após Madagascar se ter separado de África. Enquanto que os seus antepassados competiam com macacos e outros primatas, os lêmures estavam a salvo, sem qualquer tipo de competição, e por isso diferenciaram-se numa grande quantidade de espécies.
Os lêmures podem ir dos 30 gramas (Microcebus myoxinus) aos 10 kg (Indri indri). As maiores espécies, algumas das quais pesavam mais de 240 kg, extinguiram-se desde que os humanos se estabeleceram em Madagáscar. As espécies menores são noctívagas enquanto as maiores são diurnas.
As espécies pequenas Cheirogaleoidea alimentam-se de frutos, folhas, brotos, néctar, insectos, pequenos vertebrados e ovos roubados de outros animais. Os resto das espécies Lemuroidea são essencialmente herbívoros, embora possam complementar a dieta com insectos.
Os lêmures possuem polegares oponíveis, mas as suas caudas não são preênseis. Têm unhas em vez de garras e visão a cores limitada.
Ao contrário do resto dos primatas, os lêmures vivem numa sociedade matriarca.

lêmure

Ordem Primates
Subordem Strepsirrhini
Infraordem Lemuriformes
Super-família Cheirogaleoidea
Família Cheirogaleidae: lémures anão e lémures rato
Super-família Lemuroidea
Família Lemuridae: lémures
Família Lepilemuridae
Família Indridae: lémure-lanudo e sifacas

8431 – Automóvel – Um carro em cima do muro


1991_GM_HX-3
Entre a gasolina e a eletricidade, a General Motors americana optou pelas duas na criação do seu novo carro-conceito em energia alternativa, o híbrido HX3. Seus dois motores elétricos, com potência total de 120 HP, são alimentados por um conjunto de 32 baterias, recarregáveis em apenas duas horas quando ligadas a uma tomada de 220 volts. Dessa maneira, ele funciona como qualquer carro elétrico, sem emitir gases poluentes. Porém, se a tomada mais próxima estiver a muitas milhas de distância, o carro pode ser reabastecido de eletricidade em plena marcha. Virando um botão no painel, o motorista aciona o motor de 900 cilindradas, a gasolina, que movimenta um alternador capaz de gerar até 40hW de eletricidade para alimentar as baterias. Esse modo de funcionar tem a desvantagem de poluir o ar, e deveria ser usado somente longe de áreas de proteção ambiental ou já muito poluídas, como o centro de grandes metrópoles. O motor-gerador do HX3, além de recarregar o carro enquanto ele anda, também é útil caso falte luz na casa do dono – produz eletricidade suficiente para iluminar duas residências.

gm-hx3-4

8430 – Planeta Terra – A Poluição do Solo


Planeta Verde

A poluição do solo consiste numa das formas de poluição, que afeta particularmente a camada superficial da crosta terrestre, causando malefícios diretos ou indiretos à vida humana, à natureza e ao meio ambiente em geral. Consiste na presença indevida, no solo, de elementos químicos estranhos, como os resíduos sólidos ou efluentes líquidos produzidos pelo homem, que prejudiquem as formas de vida e seu desenvolvimento regular.
Existem vários tipos de poluição no solo. Existe poluição do meio urbano e do meio rural. A poluição do meio urbano é mais prejudicial, porque habitam mais pessoas na cidade do que nos campos.
A contaminação do solo, nas áreas rurais, dá-se sobretudo pelo uso indevido de Defensivos Agrícola, técnicas arcaicas de produção (a exemplo do subproduto da cana-de-açúcar, o vinhoto; dos curtumes e a criação de porcos).
Os Defensivos Agrícola são substâncias que os agricultores colocam nas plantações. Eles impedem que insectos e outros pragas acabem com a produção. Que controlam fungos. São como uma vacina contra as doenças das plantas.
Os fertilizantes servem para fazer as plantas crescerem mais fortes.
Os principais Defensivos Agrícola são os pesticidas e os herbicidas. Cada um mata um tipo de praga. Os principais fertilizantes são os fosfatos e nitratos, que vão se acumulando no solo e poluindo cada vez mais.
Existem vários tipos de pesticidas, que podem ser:
Acaricidas: para o controle de ácaros.
Bactericidas: para o controle de bactérias.
Fungicidas: para o controle de fungos.
Herbicidas: para o controle de ervas daninhas.
Insecticidas: para o controle de insectos.
Nematicidas: para o controle de nematoides (vermes).

Uma das formas de se lidar com os resíduos urbanos é a destinação de locais de depósito para os mesmos, denominados aterros.Em geral, um aterro sanitário deve ter vida útil de, no mínimo, 10 anos mas alguns não chegam a durar esse tempo.
A área para instalação do aterro deve ser criteriosamente avaliada, levando-se em conta principalmente a condição das águas no local, deve-se evitar a possibilidade de contaminação dos lençóis freáticos, a ausência de populações próximas é muito importante, assim como a sua localização quer a nível de acessos quer a nível de arejamento (zonas altas).
Os resíduos, antes de serem depositados em aterro, devem ser devidamente compactados a fim de economizar espaço útil.
O fundo e os lados dos aterros são vedados com duas camadas de telas impermeáveis de forma a evitar passagem das águas dos resíduos (lixiviados) para o solo.
A incineração dos resíduos é feita em fornos especiais. O processo de incineração, entretanto, envolve a utilização de filtros e redutores de emissão de gases tóxicos, entre os quais monóxido de carbono, dióxido de carbono e dióxido de enxofre.
Assim, o processo de Co-Incineração implica adaptações mínimas nas cimenteiras.
Numa primeira fase, os resíduos industriais perigosos são enviados para uma estação de pré-tratamento. Os lixos com pouco poder calorífico são fluidizados (trituração, dispersão e separação dos materiais ferrosos); os resíduos líquidos são impregnados com serradura e submetidos a uma possível centrifugação (no caso de possuírem grandes quantidades de água); os resíduos termo fusíveis, alcatrão e betumes, são rearmazenados em lotes.
Numa segunda fase os resíduos são levados para as cimenteiras. Em caso de acidente de transporte, os impactos ambientais serão muito menores do que antes do tratamento dos mesmos.
Nas cimenteiras são pulverizados para o forno tirando partido do seu poder calorífico (Ex: combustíveis) ou utilizados como matéria-prima substituta na produção de cimento.
Uma das principais consequências é a infertilização do solo para plantação e a contaminação da água. A terra se torna improdutiva e não se tem como plantar nenhum outro tipo de plantação.
Desfertilização do solo
Saturação do solo
Deposição ou infiltração no solo ou no subsolo de substâncias ou produtos poluentes
Contaminação do solo com metano e dióxido de carbono
Perda das funções e qualidades do solo devido à introdução de poluentes
Alteração da tipografia
Perda da fauna
Alteração da densidade e consistência do solo
Alteração da aptidão para drenagem natural
Alteração do solo em profundidade
Alterações da qualidade da água à superfície e em correntes
Lixiviação de contaminantes de instalações, em particular lixiviados de aterros
Fugas de Tanques
Deposição com impregnação de líquidos poluentes
Aplicação direta de resíduos da terra, como por eemplo lamas de esgoto
Produção e migração de gás nos aterros conduzindo ao aumento de temperatura dos solos
Contaminação dos solos através do movimento ascendente dos lixiviados por ação capilar, sob determinadas condições climatéricas.

Soluções
Para defender e preservar a qualidade do solo devemos:
Tratar lixos e resíduos domésticos e industriais.
Colocar o lixo no local correto.
Proteger as florestas.
Utilizar sempre que possível materiais reciclados e preferir produtos ecológicos.
Colaborar na reciclagem de vidro, papel, cartão, alumínio e plásticos, fazendo a separação dos lixos.
Cultivar organicamente

Regra geral, a contaminação do solo torna-se um problema quando:
Há uma fonte de contaminação
Há vias de transferência de poluentes que viabilizam o aumento da área contaminada
Há indivíduos e bens ameaçados com essa poluição
O problema pode ser resolvido por:
Remoção dos indivíduos ou bens ameaçados
Remoção da fonte de poluição
Bloqueamento das vias de transferência (isolamento da área)
Em suma pode distinguir-se duas linhas de descontaminação dos solos:
In-situ: a operação de descontaminação dá-se no local onde se encontra o terreno, a regenerar, sendo os contaminantes retirados do solo através de meios de transporte como água e ar. Estes veículos de transporte são então tratados por via, química, biológica ou mecânica, e novamente introduzidos no terreno
Ex-situ: este tipo de operação implica a remoção do solo do local onde este se encontra inicialmente, de modo a ser submetido a uma descontaminação. Os tratamentos ex-situ podem ser:
On-site: quando ocorrem diretamente no local (por exemplo através de uma unidade de lavagem dos solos)
Off-site: quando o tratamento implica o transporte do solo até à central de tratamento, onde sofre determinados processos de descontaminação.

8429 – Planeta Verde – A Chuva Ácida


chuva ácida

Trata-se da designação dada à chuva, ou qualquer outra forma de precipitação atmosférica, cuja acidez seja substancialmente maior do que a resultante do dióxido de carbono (CO2) atmosférico dissolvido na água precipitada.1 A principal causa daquela acidificação é a presença na atmosfera terrestre de gases e partículas ricos em enxofre e azoto reativo cuja hidrólise no meio atmosférico produz ácidos fortes. Assumem particular importância os compostos azotados (NOx) gerados pelas altas temperaturas de queima dos combustíveis fósseis e os compostos de enxofre (SOx) produzidos pela oxidação das impurezas sulfurosas existentes na maior parte dos carvões e petróleos. Quimicamente, chuva ácida não seria uma expressão adequada, porque para a Química toda chuva é ácida devido à presença do ácido carbônico (H2CO3), mas para a Geografia toda chuva com Ph abaixo do N.T (Nível de tolerância(PH igual à aproximadamente 5,5)) é considerada ácida. Ela também pode acarretar sérios danos as trutas por exemplo, uma vez que se cair uma chuva ácida num ambiente lacustre de uma truta, abaixo ou acima do N.T, a truta morrerá. Os efeitos ambientais da precipitação ácida levaram à adoção, pela generalidade dos países, de medidas legais restritivas da queima de combustíveis ricos em enxofre e obrigando à adoção de tecnologias de redução das emissões de azoto reativo para a atmosfera.
As emissões de dióxido de enxofre e de óxidos de azoto têm crescido quase continuamente desde o início da Revolução Industrial.3 4 Robert Angus Smith, num estudo realizado em Manchester, Inglaterra, fez em 1852 a primeira demonstração da relação entre a acidez da chuva e a poluição industrial,5 cunhando em 1872 a designação chuva ácida.
Apesar da relação entre precipitação ácida e poluição do ar ter sido descoberta em 1852, o seu estudo científico sistemático apenas se iniciou nos finais da década de 1960.
Harold Harvey, professor de Ecologia na Universidade de Toronto, publicou em 1972 um dos primeiros trabalhos sobre um lago “morto” em resultado da acidificação das suas águas pela deposição ácida, trazendo a questão da chuva ácida para a ribalta da política ambiental.
O interesse público pelos efeitos da chuva ácida iniciou-se na década de 1970, a partir dos Estados Unidos, quando o New York Times publicou os resultados obtidos em estudos feitos na Hubbard Brook Experimental Forest (HBES), em New Hampshire, que demonstravam os múltiplos danos ambientais que a acidez da precipitação estava a causar.
O problema da precipitação ácida tem crescido com o aumento da população e com a industrialização, abrangendo áreas crescentes do planeta, com destaque para a Índia e o sueste asiático. O uso de altas chaminés industriais para dispersar os gases emitidos tem contribuído para aumentar as áreas afetadas, já que os poluentes são injetados na circulação atmosférica regional, atingindo vastas áreas a sotavento do ponto de emissão.
Em resultado, é comum a deposição ocorrer a considerável distância do ponto de emissão, com as regiões montanhosas a receberem a maior parte da acidez precipitada (simplesmente por serem áreas de maior precipitação devido às chuvas de montanha). Um exemplo destes efeitos é a grande acidez da precipitação na Escandinávia quando comparada com as emissões relativamente baixas ali produzidas.
Na ausência de qualquer contaminante atmosférico, a água precipitada pela chuva é levemente ácida, sendo de esperar um pH de aproximadamente 5,2 a 20ºC, valor inferior ao que resultaria se a solução ocorresse em água destilada (pH = 5,6) devido à presença de outros compostos na atmosfera terrestre não poluída.
Essa acidez natural, apesar de localmente poder ser influenciada pela presença de compostos orgânicos voláteis e de óxidos de azoto gerados por trovoadas, resulta essencialmente da dissociação do dióxido de carbono atmosférico dissolvido na água, formando um ácido fraco, conhecido como ácido carbónico, segundo a reacção:
CO2 (g) + H2O (l) ⇌ H2CO3 (aq)
O ácido carbónico sofre ionização em solução aquosa, formando baixas concentrações acidificantes de iões hidrónio:
2H2O (l) + H2CO3 (aq) ⇌ CO32- (aq) + 2H3O+(aq)
A ionização acima referida ocorre tanto nas gotículas de água atmosférica (nas nuvens, nevoeiros e neblinas), na água existente na superfície de gelos ou cristais de neve e ainda no orvalho e na água absorvida em partículas sólidas em suspensão no ar. É devido a essa multiplicidade de vias de formação que o termo chuva ácida, apesar de muito difundido, deve ser preferencialmente substituído por deposição ácida, já que a acidificação da precipitação, com todas as consequências ambientais resultantes, pode ocorrer na ausência de chuva.
Em resultado dessa acidez natural, o limite para se considerar a precipitação como ácida é em geral um pH inferior a 4,5 (a 20 °C), o que corresponde a precipitação que contém concentrações mensuráveis de um ou mais ácidos fortes e que pela sua acidez causa comprovados efeitos negativos sobre as plantas, os organismos vivos aquáticos e as estruturas construídas e equipamentos com os quais entre em contato.
A acidez acrescida que está na origem da precipitação ácida resulta na sua maior parte da interacção dos componentes naturais da atmosfera terrestre com poluentes primários, entre os quais avultam os óxidos de azoto e os óxidos de enxofre, os quais reagem com a água atmosférica para formar ácidos fortes como sejam o ácido sulfúrico e o ácido nítrico. A principal fonte desses poluente primários é a queima de combustíveis fósseis para produção de energia térmica, energia eléctrica e para a propulsão de veículos.
Embora existam processos naturais que contribuem para a acidificação da precipitação, com destaque para os gases lançados na atmosfera pelos vulcões e os gerados pelos processos biológicos que ocorrem nos solos, pântanos e oceanos, as fontes antrópicas, isto é resultantes da ação humana, são claramente dominantes. A prova dessa predominância foi obtida pela determinação da diferença entre a acidez da precipitação nas zonas industrializadas e em partes remotas do globo, pela comparação da acidez atual com o registo deixado pela captura da precipitação no gelo dos glaciares ao longo de milhões de anos e pelo registo deixado nos fundos de lagos e oceanos pela deposição de restos orgânicos indiciadores das condições de acidez prevalecentes.
A análise das camadas de gelo depositadas em glaciares e nas calotas polares mostram uma rápida diminuição do pH da precipitação a partir do início da Revolução Industrial, passando em média de 5,6 para 4,5 ou mesmo 4,0 nalgumas regiões, mostrando um forte acidificação. Igual conclusão é retirada da análise da prevalência de espécies de diatomáceas em camadas de sedimento recolhidos do fundo de lagos, confirmando a correlação entre a industrialização e a diminuição do pH da precipitação.
As principais fontes humanas dos gases poluentes primários são as indústrias, as centrais termoelétricas e os veículos de transporte motorizado. Os gases libertados podem ser transportados na circulação atmosférica por muitos milhares de quilômetros antes de reagirem com gotículas de água, originando então os compostos que acidificam a precipitação.
A sua natureza transfronteiriça, já que a circulação atmosférica dispersa os efeitos ao longo de grandes áreas da Terra, leva a que também afete as regiões sitas a jusante do seu ponto de emissão no sistema de circulação atmosférica, levando a que áreas onde as emissões não são significativas possam ser severamente prejudicadas pela precipitação de poluentes gerados a montante.

A amônia
Embora a amônia e os compostos orgânicos voláteis, com destaque para o dimetilsulfureto (DMS) de origem oceânica e o ácido fórmico nalgumas regiões de floresta tropical, contribuam para a acidez da precipitação, os dois principais grupos de compostos que geram a acidez da precipitação são os óxidos de azoto e os óxidos de enxofre, com predominância para estes últimos, os quais são esmagadoramente de origem antrópica.
Estudos ecotoxicológicos demonstraram que a precipitação ácida têm impactos adversos sobre as florestas, as massas de água doce e os solos, matando plânctons, insetos, peixes e anfíbios. Também demonstraram efeitos negativos sobre a saúde humana. Para além disso, a precipitação ácida aumenta a corrosividade da atmosfera, causando danos em edifícios e outras estruturas e equipamentos expostos ao ar.
Os lagos são particularmente afetados por receberem e concentrarem a acidez proveniente do escorrimento através de solos acidificados pela precipitação e por concentrarem parte importante da carga dos iões solubilizados.
Nos solos, a alteração do pH altera as suas propriedades biológicas e químicas, levando a alterações na solubilidade de diversos compostos e a alterações na microbiologia do solo, já que alguns micro organismos são incapazes de tolerar as alterações resultantes.

Saúde Humana
Estudos epidemiológicos sugerem uma ligação directa entre a acidez atmosférica e a saúde das populações,28 sendo os iões tóxicos libertados devido à precipitação ácida a maior ameaça.
O cobre mobilizado foi implicado nas epidemias de diarreia em crianças jovens e acredita-se que existem ligações entre o abastecimento de água contaminado com alumínio e o aumento da ocorrência de casos da doença de Alzheimer.
Estudos demonstraram que partículas finas em suspensão no ar, uma grande parte das quais são formadas por sais dos ácidos formados na precipitação ácida (sulfatos e nitratos), estão correlacionadas com o aumento da morbilidade das pessoas e a morte prematura em resultado de doenças como o cancro.

Aumento da corrosão atmosférica
A precipitação ácida pode causar danos nos edifícios e estruturas expostas ao ar, com destaque para os edifícios históricos e monumentos, especialmente os construídos ou revestidos com calcários e mármores. Esse aumento da corrosividade resulta da reacção do ácido sulfúrico contido na precipitação com os compostos de cálcio contidos na pedra, formando gesso que é solubilizado ou se desagrega da estrutura:
CaCO3 (s) + H2SO4 (aq) ⇌ CaSO4 (aq) + CO2 (g) + H2O (l)
A desagregação que se segue é rápida e comum, basta observar elementos escultóricos e lápides localizadas nas grandes cidades, onde é comum elementos epigráficos ficarem ilegíveis em poucas décadas. A precipitação ácida também aumento o ritmo de oxidação das estruturas em ferro, causando um rápido crescimento da ferrugem e dos danos por ela causados.
Outro efeito é a redução da visibilidade devido à presença de aerosóis contendo sulfatos e nitratos, em geral associados à formação de nevoeiros fotoquímicos extremamente ácidos.

Regiões mais afetadas
As regiões particularmente afectadas pela precipitação ácida incluem a maior parte da Europa, particularmente a Escandinávia, onde muitos dos lagos estão tão acidificados que já não têm peixes e com extensas áreas florestais fortemente danificadas, grande parte do nordeste dos Estados Unidos e do sudeste do Canadá. Outras regiões afectadas são sudeste da China e Taiwan.
Regiões potencialmente afectadas nas próximas décadas incluem o sul da Ásia (Indonésia, Malásia e Tailândia), a África do Sul, o subcontinente indiano e o Sri Lanka e partes da África Ocidental (países como o Gana, Togo e Nigéria).
A natureza transfronteiriça da poluição atmosférica leva a que poluição atmosférica cuja origem física está total ou parcialmente compreendida numa zona submetida à jurisdição nacional de um Estado produza os seus efeitos nocivos numa zona submetida à jurisdição de um outro Estado, mas a uma distância tal que não é possível distinguir as contribuições de fontes emissoras individuais ou de grupos de fontes. Esses efeitos transfronteiriços levaram à assinatura de diversos acordos e tratados internacionais tendo como objecto o controlo da poluição do ar e em particular as emissões que levam à acidificação da precipitação. Entre esses instrumentos tem particular importância a Convenção sobre a Poluição Atmosférica Transfronteiriça a Longa Distância, da qual Portugal é signatário. Aquela Convenção tem Protocolos adicionais sobre o controlo das emissões atmosféricas de óxidos de enxofre e de azoto e sobre a acidificação e a eutrofização das massas de água interiores.

Soluções
Nos EUA, muitas usinas de energia que queimam carvão usam o sistema de dessulfuração de gás de fumeiro (FGD) para retirar os gases contendo enxofre de suas chaminés. Um exemplo de FGD é o depurador molhado que geralmente é usado nos EUA e em muitos outros países. Um depurador molhado é basicamente uma torre de reacção equipada com um ventilador que extrai a fumaça de gases quentes da chaminé de uma usina de energia. O calcário ou a pedra calcária em forma de slurry também é injectada na torre para se misturar com os gases da pilha e combinar-se com o dióxido de enxofre presente. O carbonato de cálcio da pedra calcária produz sulfato de cálcio de pH neutro, que é fisicamente retirado do depurador. Ou seja, o depurador transforma a poluição de enxofre em sulfatos industriais.
Em algumas áreas os sulfatos são vendidos a companhias químicas como gesso quando a pureza de sulfato de cálcio é alta. Em outros, eles são colocados num aterro.
Algumas pessoas opõem-se à regulação da geração de energia, acreditando que essa geração de energia e poluição necessitam de caminhar juntas. Isto é falso. Um reactor nuclear gera menos que um milionésimo do lixo tóxico (medido por efeito biológico líquido) por watt gerado, quando os dejectos de ambas as instalações de geração de energia são adequadamente comparados (os Estados Unidos proíbem a reciclagem nuclear, de modo que esse país produz mais lixo que outros países).
Um esquema regulador mais benigno envolve a negociação de emissões. Por este esquema, a cada planta poluidora actual é concedida uma licença de emissões que se torna parte do capital da empresa. Os operadores então podem instalar equipamentos de controlo da poluição e vender partes das suas licenças de emissões. O principal efeito deste procedimento é oferecer incentivos económicos reais para os operadores instalarem controles de poluição. Desde que grupos de interesse público possam aposentar as licenças por compra, o resultado líquido é um decréscimo contínuo e um menor conjunto de fontes poluidoras. Ao mesmo tempo, nenhum operador particular jamais será forçado a gastar dinheiro sem retorno do valor de venda comercial dos ativos.
Entre essas coisas citamos mais algumas que também ajudam:
Conservar energia
Transporte colectivo
Utilização do metrô
Utilizar fontes de energia menos poluentes
Purificação dos escapamentos dos veículos
Utilizar combustíveis com baixo teor de enxofre.

Puluição e Capitalismo Selvagem

8428 – Astronomia – O Telescópio Keck


os-grandes-instrumentos-fig-15

Na realidade são 2.
O observatório W. M. Keck é um observatório astronômico que comporta dois telescópios operando no espectro visível e infravermelho próximo. Situa-se no cume do monte Mauna Kea, no Havai, Estados Unidos da América. Cada telescópio tem um espelho de dez metros.
O observatório é gerido pela organização não governamental California Association for Research in Astronomy, tendo a NASA como parceiro.

Eles mudaram a visão do Universo
Em fins de junho de 1609, o astrônomo e físico italiano Galileu Galilei construiu sua primeira luneta – um objeto simples, com lentes nas extremidades de um tubo. No ano anterior, Hans Lipperhey, holandês já tinha registrado a patente do instrumento, mas Galileu lhe deu fama.
No verão de 1609, em Pádua, Itália, Galileu resolveu construir um aparelho que funcionasse. O telescópio provocou uma revolução na compreensão humana do Cosmos. O instrumento foi usado pela primeira vez em observações da Lua, principalmente nas sombras de montanhas e bordas de crateras; ele prosseguiu, catalogando manchas solares; e descobriu as quatro maiores luas de Júpiter ─ Io, Europa, Ganimedes e Calisto ─ hoje conhecidas como luas galileanas, em sua homenagem.
Essas observações permitiriam que Galileu sustentasse a visão de Copérnico sobre o Universo e não a visão geocêntrica defendida pela Igreja e homens esclarecidos da época. As descobertas de Galileu ajudariam a suplantar a astronomia ptolomaica, a complicada e equivocada teoria dos mecanismos celestiais que permaneceram por 1.400 anos.
Desde a construção do primeiro telescópio por Galileu, houve enormes avanços na ciência, nos sistemas ópticos e na tecnologia do instrumento. Atualmente telescópios localizados no solo são estruturas gigantescas, com espelhos flexíveis de 10 metros, dispositivos que seriam inimagináveis na época de Galileu e seus sucessores. Algumas das imagens mais nítidas do espaço foram produzidas pelo Telescópio Espacial Hubble, um espetáculo tecnológico que continua a fornecer imagens cada vez mais aprimoradas do Universo, há quase 20 anos.

8427 – O Observatório Monte Wilson


wilson_60_inch_1

É um observatório astronômico no Condado de Los Angeles, Califórnia, Estados Unidos. Está localizado no Monte Wilson, um pico de 1 712 metros de altitude nas Montanhas San Gabriel, próximo a Pasadena, noroeste de Los Angeles. Seu principal telescópio, um telescópio refletor, possui 1,5 metro de diâmetro.
Graças à inversão térmica que captura a poluição atmosférica em Los Angeles, o Monte Wilson possui ares mais constantes do que qualquer outra localização na América do Norte, tornando-no ideal para observações astronômicas e interferometria.1 O crescimento de Los Angeles limitou a capacidade do observatório em estudar as profundezas do espaço, mas o observatório continua a ser produtivo, com vários instrumentos novos e antigos para uso na pesquisa astronômica.
O observatório foi projetado e fundado por George Ellery Hale, que construiu o telescópio de um metro de diâmetro no Observatório Yerkes. O Observatório Solar de Monte Wilson foi fundado pela Carnegie Institution of Washington em 1904, com terras arrendadas dos proprietários do Hotel Monte Wilson em 1904. Entre as condições do arrendamento estavam a permissão de acesso público ao observatório.
O espelho do principal telescópio do Observatório Monte Wilson, o Telescópio Hale, possui 1,5 metro de diâmetro. Este espelho foi construído em Saint-Gobain, na França, em 1896, como um presente do pai de George Ellery Hale. O espelho possuía inicialmente 191 mm de espessura e 860 kg, sendo um bloco de vidro não adequado para observação. Porém, foi somente em 1904 que Hale recebeu recursos da Carnegie Institution para construir um observatório. Ajustes nos parâmetros do espelho do telescópio iniciaram-se em 1905, e levaram dois anos. A instalação da base e da estrutura do telescópio foi feito em San Francisco, e por pouco não foi destruída no Terremoto de San Francisco de 1906. O transporte das peças para o topo do Monte Wilson foi um trabalho árduo, e um comboio de mulas foi usado para transportar o material. As primeiras observações foram realizadas em 8 de dezembro de 1908. Era na época o maior telescópio em operação do mundo.1
O telescópio refletor de 1,5 m tornou-se um dos telescópios mais produtivos e bem sucedidos da história da astronomia. Seu desenho e seu poder de resolução de imagem tornou possível a análise espectroscópica, medidas de paralaxe, fotografia e fotometria de nebulosas. Embora superado em tamanho pelo Telescópio Hooker nove anos depois, o Telescópio Hale continuou como um dos maiores em uso por décadas.
Em 1992, o Telescópio Hale foi adaptado com um sistema de óptica adaptativa, o Atmospheric Compensation Experiment (ACE). O sistema de 69 canais melhorou o poder de resolução do telescópio de 0,5-1,0 segundos de arco para 0,07 segundos de arco. ACE foi desenvolvido pela DARPA para a Iniciativa Estratégica de Defesa, com a National Science Foundation fornecendo os fundos necessários para conversão civil.
Atualmente, o Telescópio Hale é utilizado para observações públicas. Olheiras são adaptados ao invés de instrumentos. No presente, é o maior telescópio do mundo voltado para uso público. Em junho de 2009, o custo para meia noite de observação era de 900 dólares americanos.

8426 – O Renascimento Científico


Vitruvius_DaVinci

Em relação ao Renascimento científico, o racionalismo, o experimentalismo e a nova maneira de abordar o conhecimento humano provocaram o questionamento de vários dogmas medievais. Dentre eles, destacava-se a ideia da Terra como o centro do universo, o geocentrismo, que foi intensamente questionado pelos novos observadores dos movimentos celestes, os astrônomos, que propuseram novas explicações.
Entre os astrônomos, podemos destacar Nicolau Copérnico (1473-1543). Nascido na Polônia, foi o primeiro a afirmar que a Terra girava em torno do Sol e não ao contrário. Suas ideias foram expostas em sua obra Sobre a revolução das órbitas celestes. Outro grande astrônomo da época foi Galileu Galilei (1564-1641), que embora afirmasse o mesmo que Copérnico, foi obrigado pela inquisição a negar sua teoria. Nascido na Alemanha, o também astrônomo Johannes Kepler (1571-1630) conseguiu comprovar que a trajetória seguida pelos planetas ao orbitar em torno do Sol era elíptica.

renascimento

Leonardo da Vinci teve também um importante papel no Renascimento científico como grande engenheiro, físico, anatomista, geólogo, botânico, zoólogo e um dos maiores colaboradores pare esse desenvolvimento. Dentre seus projetos encontravam-se uma máquina equipada com hélice, que poderiam manter o homem no ar. Esses projetos não se realizaram na época, mas se tornaram simbolo da genialidade de um pensador muito além de seu tempo.
O século XV presenciou o início do florescimento artístico e cultural da Renascença. Em meados do século XIV a redescoberta de textos científicos antigos, que se iniciara no século XII, foi aprimorada com a Queda de Constantinopla. Na mesma época ocorreu a invenção da imprensa, que traria grande efeito na sociedade européia ao democratizar o aprendizado e permitir a propagação mais rápida de novas idéias. Mas apesar de seu florescimento artístico, o período inicial da Renascença é geralmente visto como um momento de estagnação nas ciências.
A redescoberta de textos antigos foi aprimorada depois da Queda de Constantinopla, em meados do século XV, quando muitos eruditos bizantinos tiveram que buscar refúgio no ocidente, especialmente na Itália. Esse novo influxo alimentou o interesse crescente dos acadêmicos europeus pelos textos clássicos de períodos anteriores ao esfacelamento do Império Romano do Ocidente. No século XVI já existe, paralelamente ao interesse pela civilização clássica, um menosprezo pela Idade Média, que passou a ser cada vez mais associada a expressões como “barbarismo”, “ignorância”, “escuridão”, “gótico”, “noite de mil anos” ou “sombrio”.
Desse modo, o humanismo renascentista rompeu com a visão teocêntrica e com a concepção filosófico-teológica medieval. Agora conceitos como a dignidade do ser humano passam a estar em primeiro plano. Por outro lado, esse humanismo representa também uma ruptura com a importância que vinha sendo dada às ciências naturais desde a (re)descoberta de Aristóteles, no chamado Renascimento do Século XII.
Apesar do florescimento artístico, o período inicial da Renascença é geralmente visto como um momento de estagnação nas ciências. Há pouco desenvolvimento de disciplinas como a física e astronomia. O apego aos escritos antigos tornam as visões Ptolomaica e Aristotélica do universo ainda mais enraizadas. Em contraste com a escolástica, que supunha uma ordem racional da natureza na qual intelecto poderia penetrar, o chamado naturalismo renascentista passava a ver o universo como uma criação espiritual opaca à racionalidade e que só poderia ser compreendida pela experiência direta. Ao mesmo tempo, a filosofia perdeu muito do seu rigor quando as regras da lógica passaram a ser vistas como secundárias ante a intuição ou a emoção.
Por outro lado, a invenção da imprensa, que ocorrera simultaneamente à Queda de Constantinopla, teria grande efeito na sociedade européia. A disseminação mais fácil da palavra escrita democratizou o aprendizado e permitiu a propagação mais rápida de novas idéias. Entre essas idéias estava a álgebra, que havia sido introduzida na Europa por Fibonacci no século XIII, mas só se popularizou ao ser divulgada na forma impressa.
Essas transformações facilitaram o caminho para a revolução científica, mas isso só ocorreria depois do movimento Renascentista ter chegado ao norte da Europa, com figuras como Copérnico, Francis Bacon e Descartes. Foram essas figuras que levaram adiante os avanços iniciados pelos sábios da Idade Média, mas estes personagens já são muitas vezes descritos como pensadores pré-iluministas, ao invés de serem vistos como parte do renascimento tardio.
Surgiu na época do saque de Roma em 1527 forçado.

8425 – Os Egípcios Foram os Primeiros na Utilização do Fermento


A ideia surgiu por acaso, quando provavelmente alguma massa foi esquecida ao sol e amentou de tamanho. Levada ao forno, tornou-se mais leve e com sabor consideravelmente melhor que o pão ázimo, preparado sem fermento e até hoje utilizado em algumas civilizações orientais como os árabes e os indianos em rituais judaicos. A partir daí o uso da levedura se generalizou. O mesmo, porém, não aconteceu com as farinhas. Podendo ser fabricado com diversos tipos de grãos, milho, trigo, centeio, cevada ou painço, a escolha recaiu sobre o trigo e o centeio, talvez por conter proteína.
A hierarquização do pão se tornou intensa e após a Revolução Francesa, um decreto de 1793 propunha o mesmo pão branco para todos. A Alemanha produz 200 variedades de pão sem se preocupar com a cor da farinha, tendo inclusive pães famosos, como o tipo pumpernickel.

8424 – Tecnologia – Banho de nêutrons restaura supercondutor


A supercondutividade saiu do noticiário da imprensa, mas os cientistas continuam quebrando a cabeça para remover os obstáculos a sua utilização. Como se sabe, os sonhados supercondutores de alta temperatura – que permitem a passagem de corrente elétrica sem desperdício algum – perdem suas propriedades, por exemplo, quando utilizados em certos equipamentos, como ímãs e geradores. É que, nesses casos, as imperfeições no arranjo dos átomos que compõem a estrutura do material supercondutor, as mesmas que garantem o livre trânsito da energia, são por assim dizer corrigidas pelos campos magnéticos. Há pouco tempo, porém, pesquisadores da empresa americana AT&T Bell conseguiram algo que pode ser literalmente uma luz no fim do túnel: eles aumentaram em quase cem vezes a capacidade condutiva de pelo menos um material empregado naqueles equipamentos, dando-lhe um banho de nêutrons, que refez as imperfeições no arranjo dos átomos e devolveu-lhe assim a condição de supercondutor.

8423 – História do Brasil – Os Bandeirantes


bandeirante-tipos

Foram os exploradores que, em nome da Coroa, adentravam os sertões em busca de riquezas e escravos, na época do Brasil colônia. Vindos principalmente das vilas de São Paulo e São Vicente, os bandeirantes foram os verdadeiros “descobridores” do Brasil.
As expedições organizadas pelos bandeirantes ocorreram do século XVI ao século XVIII e foram determinantes para a constituição do Brasil tal como é. Entretanto, a definição dos bandeirantes como herói ou vilão é uma questão ainda muito polêmica.

As Bandeiras, nome que recebiam as expedições organizadas por particulares, ou Entradas, expedições oficiais financiadas pela Coroa, de início, visavam mesmo à captura dos índios para utilização da sua mão de obra nas plantações. Os bandeirantes embrenhavam-se na mata seguindo, geralmente seguindo o curso de rios, abrindo trilhas e vez ou outra fixando postos de descanso que mais tarde, viriam a dar origem a cidades.
Principalmente após o século XVII a bandeiras passaram a ter como objetivo a busca por ouro e pedras preciosas, mas os bandeirantes ficariam conhecidos mesmo é por terem sido os grandes desbravadores das terras brasileiras e os principais responsáveis pelo estabelecimento de muitas cidades.
Para compreender sua importância basta pensar que quando o Brasil foi descoberto, éramos um imenso matagal ocupado e conhecido apenas pelos índios.
Em cada região existiram bandeiras que foram muito importantes cada qual a sua maneira. Mas as que desbravaram o território dos, hoje, Estados de Goiás e Mato Grosso, tiveram um papel importantíssimo para a expansão do território brasileiro e definição da fronteira para além do que era definido no Tratado de Tordesilhas. Os principais bandeirantes desta região foram: Bartolomeu Bueno da Veiga, chamado de “Anhanguera”, Alvarenga e Antônio Pedroso.
Por outro lado, a história das bandeiras foi uma história de violência para com os indígenas. Estes foram praticamente dizimados pelos bandeirantes e, quando capturados eram escravizados e obrigados a um trabalho forçado tal qual os negros trazidos da África.

8422 – A Rede Inteligente de Energia Elétrica


rede-inteligente-de-energia

Referida no idioma inglês como “smart grid”, se refere a um novo sistema de distribuição de energia elétrica utilizando a tecnologia digital. Por meio de comunicações digitais bidirecionais (sentido duplo) é possível controlar com programas as atividades de aparelhos elétricos, eletrônicos e lâmpadas nas residências e locais de trabalho, permitindo otimizar o consumo, economizar energia e tornando o sistema de distribuição mais transparente e confiável.
A rede elétrica utilizada até o início do século XXI, se demonstrou eficiente, porém, por ser unidirecional, sempre apresentou falhas e vulnerabilidades. No ano de 2009, a partir de um programa de implementação de programa de rede inteligente de distribuição de energia elétrica, o presidente norte-americano, Barack Obama, afirmou que essa iniciativa é essencial para a economia e para o meio ambiente, e destinou 4,5 bilhões de dólares para o setor.
Esse novo sistema promete proteger os consumidores de apagões, de roubo de energia, de encarecimento suspeito nos valores das tarifas, permitindo o fornecimento de métodos limpos de geração e distribuição de energia. Considerando, as redes tradicionais, o sistema unidirecional determina a eletricidade oferecida numa ponta pelas usinas geradores e o uso da mesma eletricidade pelos consumidores na outra.
Através de uma rede bidirecional, numa rede inteligente, os componentes se comunicam em prol de uma maior flexibilidade, permitido a escolha ou a programação sobre o tipo de energia, qual fonte e horário específico que a geladeira e a máquina de lavar, por exemplo, poderão trabalhar mais. Dessa forma, os equipamentos de uma casa terão a capacidade (por meio de chips) de “conversar” com a rede sobre as melhores opções de uso da energia.
Esse novo sistema alcançou novos terrenos nos EUA e na Europa; no Brasil os primeiros passo foram dados em 2012. O nosso país entrou no seleto grupo a partir da instalação de uma rede inteligente para testes no município de Aparecida, estado de São Paulo. O projeto foi iniciado por meio da substituição dos relógios de luz convencionais por novos medidores interligados aos computadores do centro de medição da empresa distribuidora de energia elétrica.
Os medidores instalados nas casas de Aparecida possuem a capacidade de se comunicarem via rádio com concentradores fixados em postes, permitindo a troca de dados entre os consumidores e a distribuidora de energia. Em todo o mundo as principais questões relacionadas à implantação de redes inteligentes se referem à possível vulnerabilidades que permitiria a invasão de hackers na rede para efetuarem apagões em cidades inteiras ou o desvio de informações dos consumidores para o uso particular de empresas ou grupos terroristas.

8420 – História – Exploradores e Embarcações


navegacoes

Era necessário quebrar o monopólio árabe-italiano no comércio de especiarias(cravo, canela, pimenta, noz-moscada, gengibre) e de artigos de luxo ( porcelana, tecidos de seda, marfim, perfumes). Até então, os mercadores de cidades como Gênova e Veneza controlavam a entrada de todos os produtos vindos do Oriente ( Ásia e África). Era preciso encontrar outras rotas que evitasse o mar Mediterrâneo.
A grande crise dos séculos XIV e XV: A Guerra dos Cem Anos entre França e Inglaterra marcou toda a Europa, comprometendo as rotas comerciais terrestres que cruzavam a França. E, por sua vez a peste negra trouxe uma forte retração nas atividades comerciais, uma vez que dizimou a população. E, também para completar veio uma grande fome sob a população, devido a falta de alimentos. Era necessário conquistar novos mercados, fora da Europa, que fornecessem alimentos e também matéria-prima para incrementar as atividades econômicas.
Novos mercados para o artesanato e as manufaturas urbanas precisavam ganhar novos consumidores. Do contrário, permaneceriam estagnados, atendendo apenas às modestas necessidades de consumo das populações locais.
A Europa vivia um momento de esgotamento das minas de metais preciosos, o que bloqueava o comércio e provocava uma verdadeira sede de ouro. Era necessário descobrir jazidas de metais preciosos em outras regiões do mundo.
Foram os Estados nacionais, já fortalecidos que impulsionaram a expansão marítima. O rei estaria assim, aumentando seus poderes, a nobreza manteria seus privilégios e a burguesia, aumentaria seus lucros.

Colombo e a expansão marítima

A navegação marítima
No século XV, como não se conhecia o tamanho e a forma exata do planeta, quase todos tinham medo das longas viagens marítimas, principalmente pelo oceano Atlântico, conhecido como “Mar Tenebroso”. Além disso, fantasias e lendas criavam um clima de insegurança entre os marinheiros.
Entretanto, a possibilidade de enriquecimento e de viver em melhores condições fazia com que muitos participassem das grandes viagens, mesmo temendo o mar. O tempo e a experiência marítima foram mostrando que muitos medos era justificados (tempestades ou naufrágios) e outros eram imaginários ( monstros marinhos e abismos, por exemplo).
A vida dos marinheiros nos navios não era fácil. Os alojamentos da tripulação eram imundos, rústicos e apertados, e as viagens, longas e desconfortáveis. Muitos morriam de escorbuto, devido à escassez de legumes e verduras (fontes de vitaminas C) na alimentação.
Contudo, diversas inovações técnicas colaboraram para o desenvolvimento da navegação marítima de longa distância, como a caravela, a cartografia e a bússola. A caravela foi a principal embarcação marítima utilizada pelos portugueses, era um navio de estrutura leve movido pelo vento; sua principal característica era a vela de formato triangular (latina), que podia ser ajustada em várias direções para captar a força do vento. Assim, qualquer que fosse o sentido do vento, a caravela podia navegar na direção desejada pelo piloto. Com as viagens marítimas, a cartografia(elaboração de mapas) teve significativo desenvolvimento. A partir do século XV, surgiram mapas com os primeiros registros das terras descobertas na África e na América. Esses mapas eram considerados verdadeiros segredos de Estado, mas as informações circulavam quando o navegador de um país passava a servir a outro.
Outro instrumento de orientação espacial introduzido na navegação européia desse período foi a bússola, cuja invenção é atribuída aos antigos chineses. Foram, porém, os árabes que a levaram para a Europa, onde começou a ser utilizada pelos navegadores.