29/03/2018

Les longues périodes de précipitations ne peuvent être la cause des glissements de terrains.

Cela fait depuis quelques temps que l'on associe très souvent aux glissements de terrains, la pluviosité abondante durant de longues périodes. Mais dans une volonté de comprendre pourquoi et comment une couche de terre peut-elle se désolidariser de son sous-sol, je passe et repasse bon nombre de vidéo le plus souvent trouvées sur le net mais aussi de caméra de surveillance.

L'agriculture intensive, mécanique avec son côté chimique est très souvent la responsable principale des coulées de boues. Et les raisons sont diverses, l'emploi de machines de plus en plus lourdes, dame et rend le sol plus compact de un. De deux, l'utilisation de produits chimiques, imperméabilise ce sol damé. De trois, afin d'optimaliser la surface, on fait abstraction des haies arborées mais aussi des fossés. Et en quatre, on modifie trop régulièrement les écoulements naturels quand on ne les élimine pas radicalement !! Ca c'est pour les coulées de boues en zone agricole.

Pour les autres phénomènes tels que les glissements de terrains, là aussi on pointe très souvent une pluviosité abondante et prolongée. Sur ce point c'est un mensonge, une fausse cause, juste sur un détail, mais de taille ! Selon les nombreuses vidéo, le scénario est le même ce n'est qu'une couche de terre de quelques mètres à peine qui glisse littéralement sur le sous-sol qui, tenez vous bien, est totalement sec ! D'ailleurs si on y fait bien attention, le plus souvent cela se passe avec un nuage de poussière dense ! Si le sol était aussi détrempé qu'il n'est prétendu, il ne devrait pas avoir autant de poussière.

Que dire alors lorsqu'un glissement se produit en zone rocheuse. Les pluies abondantes ne devraient pas avoir de telles incidences sinon que plus bas. Un autre intervenant est trop souvent ignoré, la sismicité, et elle peut impacter bien longtemps après s'être produite, et même en lien avec les précipitations, sans toutefois être nécessairement la cause majeure.

On veut que l'on pense "obligatoirement" que ces précipitations abondantes, soient la cause de ces désastres, qu'elles sont exceptionnelles en raison du changement de climat. Mais lorsqu'on lit les chroniques historiques des régions, on s'aperçoit directement que de tout temps, ça c'est produit même parfois répété au fil des périodes. Et ce qu'on veut nous faire perdre de vue, c'est que notre planète se meut aussi et reste sujette, comme tout dans l'univers, à des cycles.

03/02/2018

La science officielle tenterait-elle de faire admettre son erreur sur les cause réelles du RC ?

La science serait-elle en passe d'admettre officiellement qu'elle se serait trompée en ayant prétendu que les causes du réchauffement climatique n'ont en fait rien d'anthropique ?

Voici l'analyse d'un communiqué de presse émanant du CNRS datant du 29 janvier 2018, dont le titre est on ne peut plus évocateur voyez.

"Turbulence plasma dans la magnéto-gaine terrestre. Les fluctuations de densité "amplifient le taux de chauffage" !

Les chercheurs du LPP (laboratoire de physique des plasmas) ont associés leurs modèles avec les données satellitaires afin d'obtenir les premières estimations des taux de dissipation de l'énergie dans la magnéto-gaine, une zone de plasma proche de la Terre. Il en résulte que par rapport aux valeurs obtenues sur les vents solaires, les résultats sont "au moins" cent fois supérieurs, avoisinant ainsi celles qui se produisent dans la couronne solaire. Les résultats viennent d'être publiés dans le Physical Research Letters le 29/01/2018. Voici le lien :

http://www.insu.cnrs.fr/node/8352

 

- Le vent solaire étant un plasma supersonique composé de protons et d'électrons, son impact sur quelque objet qui soit disposant d'un champ magnétique propre, crée une onde de choc suivie d'une zone où les turbulences s'estompent à mesure qu'elles s'en éloignent ralentissant ainsi le vent solaire. Mais plus il s'en éloigne plus il devient dense et donc plus chaud. Les vortex dont il est question dans l'articles, deviennent plus petits et donc brassent plus de chaleur, mais aussi plus petits ils sont et plus l'accélération des particules est vive donc plus de chaleur encore. Les deux phénomènes ensembles sont des bombes d'énergie qui s'accroissent exponentiellement !! Dès lors pourquoi dans le premier paragraphe, venir parler de "dissipation" ?? Plus fort encore, pourquoi prétendre que le processus de transfert d'énergie est responsable de la formation des aurores ?? C'est erroné, faux !

-Vous avez dit dissipation ? Dans ce deuxième paragraphe, il est question des vortex que créent ces turbulences. A les lire, ces vortex dissiperaient l'énergie et que plus petits deviendraient-ils "plus" chaud ils seraient ! Or ils parlent bien ici de dissipation de l'énergie ! Ce qui en soit est une contradiction, puisqu'une dissipation c'est une réduction, la perte d'un pouvoir !  En revanche, ils admettent que l'énergie ainsi en jeu, est belle et bien celle de champs électromagnétiques et que "leur conversion" se traduit par un effet de "chauffage" ou une "accélération" des particules de ce plasma.

En conclusion de l'analyse de cet article : Lorsque le vent solaire percute notre magnétosphère, notre planète Terre serait donc enveloppée d'une "source" de chaleur électromagnétique qui croîtrait à mesure qu'elle s'approche de notre atmosphère.  Donc en bout de course pourquoi encore oser prétendre que le réchauffement climatique est anthropique et que de plus des analyses quantitatives en CO2 démontrent de plus en plus qu'il n'y serait pour rien, du moins pas dans les proportions qu'on nous suggère !

03/01/2018

Deux ans d'absence ... et pour cause.

Comme vous le constaterez il y a un certain temps que je n'y ai plus apporté d'article, et pour cause. Depuis deux ans et demi j'apporte une aide technique à une équipe pluridisciplinaire qui travaille sur une étude portant sur des anomalies thermiques en milieu océanique.

Pourquoi ne concerne-t-elle pas l'aspect terrestre, et bien tout simplement parce que sur ce plan, il y a trop d’interférences thermiques dues en grosse partie à l'activité humaine.

Cette étude a débuté notamment par la problématique de la fonte des glaces arctiques et celles des glaciers montagnards.

Des anomalies thermiques en pagaille.

1° Les anomalies repérées durant ces deux ans, semblent pour la plus part provenir de l'activité sismo-volcanique du plancher océanique. Cette partie de la croûte terrestre étant très fine, possède une réactivité plus rapide et plus développée par rapport à celle dite continentale. Donc quel que soit le type d'activité qui s'y produit, entraîne aussitôt une élévation de la température de l'eau environnante. L'eau ainsi surchauffée très soudainement, plus légère (peu/pas saline) remonte au gré des courants marins vers la surface tout en perdant progressivement des degrés. Durant ces 2 années nous avons constaté que le nombre de ces puits d'eau chaude, a augmenté par endroits. Certaines de ces sources ont même vu leur activité s'accroître ou s'étendre considérablement. Ce constat fut permis grâce à l'utilisation de satellites disposant de systèmes de repérage d'infrarouges, comme MTSAT, GOES et Meteosat, mais aussi de données mises à disposition provenant d'installations militaires ou privées comme NEODAAS, NCEO. La profondeur maximum prise en compte est de 7 m sous le niveau marin afin de préserver la fiabilité des données enregistrées, celles plus basses ne le permettant plus. Un autre moyen est utilisé, de petites sondes lestées jusqu'à profondeur maxi de leur résistance, nous ont permis une fois relâchées de suivre en simultané avec les images satellitaires, donc en temps réel, à la fois l'évolution des températures rencontrées, mais aussi la trajectoire qu'elles suivaient lors de la remontée en surface. C'est aussi de cette manière qu'il ait été permis de clairement identifier la cause et l'origine de ces anomalies. Enfin, seules les températures nocturnes ont servi de base, celles diurnes ont fait quant à elles, l'objet d'équations par rapport à celles nocturnes afin de préserver l'équivalence.

La fonte se produit plus(+) par-dessous.

2° Les glaces polaires de même que celles des glaciers montagnards fondent plus vite, du moins à certains endroits, qu'à d'autres. En effet, une majeur partie d'entre-elles, fond par en-dessous et non par-dessus. En effet selon leurs rapports, certains prétendus "spécialistes", prétendent à qui veut le croire que les glaces polaires fondent par au-dessus sous l'action de la hausse des températures engendrée par l'action des GES. Or dans leurs dossiers, l'activité ou rayonnement calorifique du soleil, n'y est même pas pris en compte. De même que l'action des ondes électromagnétiques résiduelles provenant des EMC après leur franchissement de notre bouclier naturel. Qui plus est, on a parcouru plusieurs sites sur des milliers de km de glace et partout, je dis bien "partout", le constat est le même, la surface de ces glaces ne présente absolument pas de dégradations liées à une hausse de température dite sèche (t° non humide (vapeur)). En revanche, on retrouve une importante proportion de particules d'eau de mer, soit salée amenées par le vent, qui peut être violent et soutenu dans ces lieux, et généré par la modification de l'albédo, un cercle vicieux quoi !! Et en plus, comme tout le monde le sait le sel fait fondre la glace !! CQFD

Outre cela, on s'est posé la question, pourquoi la fonte par-dessous, comment ça ce fait-il ? Et bien tout simplement parce que comme pour le fond des océans l'activité interne de notre planète est accrue. Ce processus est en voie d'élaboration avec la participation de deux nouvelles disciplines au sein du groupe, et pas n'importes lesquelles, elles traitent sur les champs magnétiques terrestres et solaires et sur l'activité solaire en elle-même. Il y a deux ans de ça à Hawaï, une équipe avait mis la main sur une  particularité singulière et inhabituelle de la lave, les ferrugineux contenus étaient plus liquides qu'auparavant, ce qui implique que la température de fusion ayant augmenté, certains d'entre eux se sont liquéfiés d'avantage, et donc rendant la lave plus liquide et donc plus fluide qu'avant. L'implication de cette fluidité entre à la fois dans l'augmentation du volcanisme, mais aussi par une remontée plus aisée vers la surface, et alimente alors d'avantage les chambres magmatiques et donc de ce fait accroît du même coup le mécanisme des courants de convection dans les deux manteaux. Ces courants étant plus forts, ils auraient tendance à heurter plus fort aussi la lithosphère par-dessous. Cette action entraîne dès lors, la création d'une multitude de microfissures par lesquelles la chaleur et la lave remonte plus aisément vers la surface tout en fragilisant la lithosphère d'où une activité sismo-volcanique en augmentation partout sur la planète.

Le fait qu'un même phénomène de hausse de températures se produit ailleurs dans notre système solaire et je précise, uniquement au sein des planètes telluriques et disposant d'un noyau de fer, tente de définir qu'il y aurait présence d'un mécanisme d'ondes ou autres qui nous soient encore inconnus, et produiraient une excitation des ferrugineux qui composent ces planètes. Cette agitation, engendre une friction entre elles ce qui produit de la chaleur. L'électromagnétisme ne serait donc pas du tout étranger au phénomène de hausses des températures terrestres, internes et atmosphériques à l'instar de la plaque à induction (cliquez pour voir cet article précédent : Serait-ce l'origine réel du réchauffement global ) alors que cette piste date déjà de janvier 2011 !

 

Il est un fait que ces deux phénomènes, liés en plus à l'activité humaine entraînent une hausse aussi redoutable qu'insoupçonnée de production de "VAPEUR". Il ne faut pas oublier qu'elle est un GES (Gaz à effet de serre) très rarement pris en ligne de compte dans les données des scientifiques à la solde du GIEC. Tout à fait normal, puisqu'ils se focalisent essentiellement sur le CO2 dit anthropique et de plus, uniquement sur base de "simulations" informatisées (données erronées, incomplètes, et trop partiales). Petite précision au passage, toutes les déclarations de cet organisme pour le moins politisé, puisque "gouvernemental", sont faites sur base de calculs ayant pour "SEULE UNITE" de conversion, le CO2, et voilà le coupable est tout désigné, excluant ou minimisant l'action de tous les autres GES puisqu'ils sont convertis en CO2. Voilà pourquoi c'est une vaste escroquerie à l'échelle mondiale.

 

Bonsoir à vous tous. Eaglefeather

Quelques liens :

Lien : La turbulence des noyaux planétaires excitée par les marées

Lien : Crise climatique : le refroidissement se confirme !

Lien : Il y a quelque chose qui affecte le système solaire au complet (à prendre avec des pincettes) mais intéressant dans le fond !

Lien : Au centre de la Voie Lactée, une source accélère des rayons cosmiques galactiques à des énergies inégalées

Lien : Le niveau marin depuis 20 000 ans enregistré par les coraux

26/06/2014

Au sein même de l’ONU, le ton change pour le « changement climatique » El Nino serait "le" responsable !

Relevé aujourd’hui dans la presse officielle, c’est dire que les élucubrations du GIEC, basées « que » sur des modèles arithmétiques apparaissent de plus en plus comme des absurdités. Ils ont oublié, que le climat, les cycles mais aussi l’ensemble de tout l’univers sont régis par des lois qui ne correspondent pas forcément à « nos » mathématiques de nanoscopique poussière d’humain. Qu’en connaissons-nous, de cet univers à votre avis ? RIEN, NADA, QUEDAL, CHNOLE, … .
Dès lors, si on se réfère à toutes ces déclarations c’en reviendrait à dire qu’El Nino proviendrait de nos émissions de CO2 ! Là alors c’est vraiment nous prendre pour de sombres crétins.

Article :

« Les météorologues donnent l’alerte: le monde doit se préparer à un phénomène aux effets dévastateurs
La probabilité que survienne un phénomène El Niño, un grave épisode météo se traduisant par des sécheresses et des inondations, a grimpé à 80% pour la fin de l’année, a annoncé jeudi l’OMM (Organisation météorologique mondiale), une agence de l’ONU basée à Genève.

« Le monde doit se préparer à un nouvel épisode El Niño » car « la probabilité que survienne un véritable épisode El Niño atteint 60% en juin et août et 75 à 80% pour la période octobre-décembre », a indiqué l’OMM dans son bulletin d’informations. « De nombreux gouvernements ont déjà commencé à se préparer pour l’arrivée d’El Niño », ajouté l’OMM, qui précise toutefois s’attendre à une intensité plutôt « modérée » du phénomène, et non pas « faible » ou « forte ».

Une incidence majeure sur le climat mondial

El Niño est un phénomène météo qui a « une incidence majeure » sur le climat mondial, rappelle l’OMM. Ce phénomène, qui se manifeste par une hausse de la température de l’Océan Pacifique et des perturbations météo majeures, surgit « tous les 2 à 7 ans » (notamment 1982-1983, et à l’été 1997) Le dernier épisode en date remonte à 2009-2010 et la facture est à chaque fois plus lourde. Les victimes humaines se comptent en effet par milliers, les dégâts économiques en dizaine de milliards de dollars et les pertes écologiques concernent des espèces et des territoires entiers. En 1982-1983 les sinistres couverts par les assurances (mais seuls les pays riches sont assurés) étaient évalués à 13 milliards de dollars. En 1997-98, El Niño a fait 23.000 victimes et provoqué entre 34 et 46 milliards de dollars de dégâts.

Sa probable résurgence à la fin de l’année affecte déjà certains marchés liés aux matières premières, notamment agricoles.

Un pic attendu au 4è trimestre

L’OMM a constaté que les températures dans le Pacifique tropical ont récemment augmenté pour « atteindre des niveaux correspondant à une anomalie El Niño de faible intensité ». Le Pacifique tropical « devrait continuer à se réchauffer dans les mois à venir, avec un pic attendu au 4è trimestre ».

Le phénomène El Niño attendu devrait connaître « son apogée au 4è trimestre et persistera jusqu’aux premiers mois de 2015, avant de se dissiper ». L’organisation publique française FranceAgriMer a lancé en juin un avertissement sur les possibles « effets dévastateurs » d’El Niño sur les récoltes de blé en Australie.« 

Le phénomène El Niño attendu devrait connaître « son apogée au 4è trimestre et persistera jusqu’aux premiers mois de 2015, avant de se dissiper ». L’organisation publique française FranceAgriMer a lancé en juin un avertissement sur les possibles « effets dévastateurs » d’El Niño sur les récoltes de blé en Australie.

Une chose est sûre, c’est qu’il est de plus en plus observé de par les océans, des anomalies thermiques, correspondant pour la plupart à des systèmes de failles actives dans le plancher océanique. Malheureusement c’est le seul endroit qui permet une identification concrète de ses sources de chaleur, car sur les continents, on les confondrait avec « nos » très multiples sources de chaleur.

Source de l’article : RTL Info.be, MSN/M6.fr/finances

15/06/2014

22 raisons permettant de douter des déclarations du GIEC.

Selon le discours officiel du GIEC, « "La" science a parlé », et tout opposant, voire sceptique est passible d’être banni ou exclu. Car il faut faire vite, et cela fait plus de 20 ans que l’on nous rabâche les oreilles, qu’il y a extrême urgence et que la Planète ne pourra plus être sauvée d’ici trois à cinq ans, que la Planète risque de devenir une " poêle à frire "si nous ne réduisons pas drastiquement nos émissions de CO2, à n’importe quel prix, même au prix de la décroissance, de la misère et de la ruine de nos économies.

Or, toute personne ayant une assez bonne culture scientifique, et qui se donne la peine de travailler la question, en arrive très vite à la conclusion que les thèses du GIEC sont fausses, pour nombre de raisons, dont voici une liste non exhaustive.

1. La TMAG (température moyenne annuelle globale) est stable depuis 1997, malgré une augmentation continue du taux de CO2 : .comment alors soutenir un rapport de causalité entre croissance de concentration du gaz carbonique et température ?

2. Les émissions humaines de CO2 depuis 1997 représentent 40% de ce que l’homme a envoyé dans l’atmosphère depuis le début de la Révolution industrielle. Or, on vient de le voir, pendant cette période, la température s’est stabilisée. Comment alors soutenir un rapport de causalité entre émissions anthropiques de CO2 et augmentation de la TMAG [1. Depuis 1880, la seule période de co-variation entre la TMAG et la teneur en CO2 fut 1978-1997. De 1910 à 1940 la TMAG a progressé au même rythme que 1978-1997 alors que les émissions étaient insignifiantes. De 1950 à 1978, alors que les émissions de CO2 s'envolaient, la TMAG a baissé. L'analyse des carottes de Vostock montre que c'est la hausse de la température qui fait augmenter le CO2 dans l'atmosphère (par dégazage) et non l'inverse. Ce processus est toujours valable de nos jours, même pour de petites variations de température (le retard du CO2 étant alors de quelques mois).] ? 

3. D’autant que la part anthropique du CO2 atmosphérique n’est que d’environ 5% (analyse isotopique) au lieu de 25-30% constamment annoncé.

4. La durée de vie du CO2 dans l’atmosphère est en moyenne de 5 - 6 ans, et non de 100 ans. 

5. Les variations de la TMAG se font de manière sinusoïdale, avec une période de 60 ans qui correspond aux mouvements du soleil par rapport au centre de gravité du système solaire. Nous venons de franchir le sommet de la sinusoïde, et donc les prochaines années devraient se refroidir, comme ce fut le cas après 1950.

6. Il y a un phénomène de saturation du CO2 sur une épaisseur optique de dix mètres environ. Si vous prenez une source d’IR à large spectre (corps chauffé à 1000°C, par exemple), et que vous mesurez avec un spectromètre le spectre restant après la traversée de quelques mètres d’atmosphère, vous verrez que les bandes du CO2 (4,3 et 15 microns) ont été entièrement absorbées. Donc l’atmosphère au-dessus de quelques dizaines de mètres ne voit plus les bandes d’absorption du CO2, et donc, le rajout de CO2 ne change plus rien, si ce n’est que l’épaisseur optique diminue. C’est cela le processus de saturation du CO2 atmosphérique, confirmée par les satellites, qui ne « voient » quasiment plus les bandes du CO2.

7. Dans le passé (Carbonifère), le taux de CO2 a été 25 fois supérieur au taux actuel, pourtant il n’y a pas eu d’emballement des températures, ce fut grâce au processus de saturation. Pourquoi nos misérables émissions de CO2 auraient-elles à soudainement un impact cataclysmique, alors que les lois de la Nature sont invariantes dans le temps et l’espace ?

8. Les niveaux océaniques montent de 1,7 mm/an (d’après les mesures au marégraphe de Brest), de moins 1,6 mm/an à Marseille depuis la fin du dix-neuvième siècle et aucune accélération n’a été mesurée ces dernières années.

9. Le hot spot (« point chaud ») prévu en zone tropicale, qui devait être" LA preuve indubitable du rôle du CO2 sur la TMAG", n’a pas été détectée, donc c'est qu'il n’existe pas.

10. Le taux de vapeur d’eau atmosphérique diminue (alors que le GIEC avait prévu l’inverse – rétroaction positive – quand le CO2 augmente). La rétroaction réelle est donc négative.

11. La banquise australe se recompose, et atteint des records de superficie.

12. La somme des surfaces des deux banquises, dont les variations sont en opposition de phase, est à peu près constante, ce qui signifie que l’albédo de la cryosphère l'est aussi.

13. Les mesures des 3000 sondes océaniques ARGO montrent pour son ensemble et, depuis leur mise en service en 2003, un léger refroidissement des océans, entre la surface et 700 à 1000 m de profondeur (au mieux aucun gain de chaleur). En revanche et il y a peu, certaines régions océaniques où des failles sismiques sont actives à très actives, montrent des flux de chaleur remontant vers la surface. Ces flux ont tendance à modifier quelque peu les courants marins.

14. Le flux IR (infrarouge) quittant la haute atmosphère est supérieur aux prévisions des modèles (Il n’y a pas d’effet couverture par les GES de la troposphère).

15. La loi de Stefan-Boltzmann n’est pas applicable aux gaz, qui ne sont pas des corps noirs, ni des corps gris, alors que le GIEC applique cette loi à tous les gaz.

16. Les gaz émissifs, plus froids que la surface terrestre, ne peuvent en aucun cas la réchauffer (second principe de la thermodynamique, qui interdit le réchauffement d’un corps chaud par un corps plus froid).

17. Ce sont les températures qui ont toujours piloté les variations du CO2, jamais l’inverse. À notre époque, le retard du CO2 sur la température est de quelques mois.

18. Le projet CLOUD du CERN teste la théorie de Svensmark-Shaviv (rôle des rayons cosmiques, dont le flux est modulé par l’activité solaire, sur la formation des nuages) et les premiers résultats, assez positifs, ont été publiés dans Nature. Il est par ailleurs questions, que d'autres sources galactiques d'émissions de rayonnements, aient été identifiées. Malheureusement comme à l'accoutumée, tout ce qui ne peut être expliqué rationnellement, ou offrir une preuve "matérielle" quelconque, est considéré comme absurde et pure fabulation. Or des preuves concrètes se dévoilent, dans le fait d'un réchauffement "interne" de la planète, ce qui se traduit par la hausse tant à sa surface, que dans son atmosphère.

19. Les modèles ne savent pas modéliser la cryosphère, ni l’ennuagement, dont les variations ont un impact important sur la TMAG. Le projet Earthshine, qui mesure les variations de la réflectance de la Terre, vue de la lune quand elle n’est éclairée que par notre planète, montre que cette réflectance varie essentiellement en fonction de l’ennuagement. Or cette réflectance a décru momentanément de 1984 à 1998, pour réaugmenter par la suite jusqu’en 2004, ce qui suit de façon évidente, les variations de la TMAG.

20. Les projections par l'intermédiaire des modèles, divergent de plus en plus des observations faites. Un modèle ne peut être considéré en aucun cas, comme une preuve scientifique, plus encore lorsqu'il est réfuté par l’observation directe et sur le terrain. C’est qu’il est faux et erroné et doit être abandonné ou, au mieux revu en détail. On attend toujours cet abandon ou la révision des modèles mis en avant par le GIEC et financés par les lobby's et dont l'impact financier se répercute sur les populations.

21. Il est par ailleurs impossible, que des modèles numériques puissent prévoir avec exactitude, les évolutions du climat, car il s’agit d’un "système chaotique couplé et non linéaire", comme le précisait fort bien le GIEC dans son rapport de 2001, et comme le montrent les instabilités du climat passé et actuel. Pourquoi cela aurait-il changé actuellement ? Sûrement pas pour des raisons scientifiques…

22. Enfin le GIEC n’est ni un organisme scientifique, ni un organisme indépendant : le résumé pour les décideurs (SPM), qui seul est lu par les instances internationales, les politiques et les médias, est rédigé sous le contrôle étroit des représentants des États et la surveillance des ONG. La composition de ses instances dirigeantes montre une minorité de scientifiques très majoritairement engagés dans l’idéologie environnementale, et une majorité ONG + États.

D'autres raisons sont en cours d'études et elles ne manquent pas !

15/02/2014

Obama propose un milliard de dollars pour lutter contre l’impact du réchauffement

Et on doit croire à la bonne foi de ses intentions !! Surtout que les USA ont toujours été réfractaires à tous les protocoles et demandes en matière de diminutions des émissions des GES !!!

Le président américain Barack Obama a annoncé vendredi qu’il demanderait au Congrès américain de débloquer un milliard de dollars pour atténuer les effets du réchauffement climatique aux États-Unis. « Le budget que je vais adresser au Congrès le mois prochain va prévoir un milliard de dollars de nouveaux investissements pour de nouvelles technologies pour aider les communautés à se préparer au changement climatique », a déclaré M. Obama à son arrivée en Californie où il a rencontré des fermiers touchés par la sécheresse qui sévit depuis plusieurs mois dans cet État de l’ouest américain. M. Obama n’a toutefois pas la garantie que ces fonds soient finalement débloqués, en raison de l’opposition des Républicains, majoritaires à la Chambre des représentants. Le président américain a également promis une aide de quelque 100 millions de dollars pour venir en aide aux agriculteurs de Californie.
Source AFP

Je me pose néanmoins une question, « Pourquoi une aide aux seuls agriculteurs californiens? Alors que la sécheresse touche aussi depuis près de cinq ans, plusieurs états du centre ?

26/12/2013

Des touristes de l’Antarctique coincés par les glaces !

Des touristes russes à bord d'un navire de recherche océanographique ont passé Noël à attendre les secours, le bateau étant bloqué dans la glace en Antarctique, rapportent les autorités australiennes.

L'Australian Maritime Safety Authority a dépêché trois navires après avoir reçu mercredi un appel de détresse du bateau enregistré en Russie et construit en Finlande. Au total, 50 passagers et 20 membres d'équipage se trouvent à bord du MV Akademik Shokalskiy, bloqué dans la glace au sud de la ville australienne de Hobart. Le navire n'est pas en danger, selon les autorités, mais l'arrivée de l'aide devrait prendre au minimum deux jours.

Un communiqué de Expeditions Online (agent de réservation) : "Le Akademik Shokalskiy est un navire d'expédition entièrement coque renforcée construit en 1984 pour la recherche polaire et océanographique. Cette classe de navire est reconnue mondialement pour l'exploration polaire, en raison de sa force, la maniabilité."

Étonnant :

- ce navire au départ conçu spécialement pour ce genre d'expédition, est coincé par des glaces.

- étant en été austral, alors qu'on nous rabâche les oreilles avec la fonte des glaces des pôles.

Il y a comme qui dirait, quelque chose dans cette histoire, qui sonne faux !

Suivant une source fiable, le navire se situe à 100 nm de la Base Dumont D'Urville (le point le plus au sud du trajet ci-dessous).

akk.PNG

Chose d'autant plus étrange dans cette information, la carte des températures au sol montre que la région (bord bas à droite à hauteur du UW-SSEC) est de +/- 5°c de même que la surface marine.

 

met.PNG

 


25/12/2013

"Xaver", ou la tempête d'absurdité, tant des scientifiques que des politiciens !

 

Le 5 décembre alors que la tempête "Xaver" se déplace vers  l'Europe de l'Ouest, que déjà les spécialistes belges se lancent dans des déclarations alarmistes, relayées et exacerbées par la presse en soif de sensationnel.

Les vents ne devraient pas dépasser 90km/h, et pourtant, l'amplitude des marées pourraient atteindre 6 mètres. Un niveau exceptionnel qui n'a plus été relevé depuis la tempête de 1953.

David Dehenauw, météorologue explique que "Les vents dans la moitié nord de la mer du nord et dans le nord de l'Atlantique, on a des vents de tempête de secteur nord, nord-est et viennent directement du Pôle Nord, donc ça pousse l'eau de mer vers la côte belge, et cela explique la raison pour laquelle on va avoir des marées très hautes le long de la côte et le long de l'Escaut". Les autorités belges ont pris des mesures de précaution qui devraient permettre de limiter les dégâts. Le plan catastrophe a été déclenché dans la province de Flandre occidentale et le maire de la commune belge de Bredene a décidé d'évacuer préventivement plus de 2000 habitants près du canal Gand-Bruges-Ostende. «Des simulations ont calculé que le niveau de l'eau pourrait atteindre 6,1 mètres. C'est la plus haute mesure depuis trente ans», a prévenu le gouverneur de la province de Flandre occidentale, Carl Decaluwé. (RTL-Info, La Meuse, La Libre, 7/7,..)

Très voire trop souvent et même de plus en plus souvent, on constate que des décisions politiques onéreuses sont prises sur base des dires de "spécialistes". Or, il apparait fréquemment qu'il s'agit de publicateurs pour revues scientifiques ou de chercheurs en quête de subventions. Ce jeux d'intérêts, plombe de plus en plus les finances publiques, et au final c'est le contribuable qui en paie grassement le prix, alors qu'il n'en a rien en retour, déjà qu'il peine à survivre financièrement aux taxes et à un coût de la vie pour le moins exorbitant.

 

 

Le 6 décembre, donc après la tempête.

Mme H Crevits, ministre flamande des Travaux Publics déclarait à la presse " Grâce aux mesures de prévention efficaces, les dégâts sont restés très limités. La réalité de ce vendredi  prouve que les investissements dans la sécurité de la Côte sont importants." De plus elle félicitait les spécialistes pour, je cite "les prévisions précises et fiables", tellement fiables que rien ne s'est produit. Pour clore son intervention Mme Crevits ose encore déclarer  " Les gros investissements consentis ces dernières années pour la protection de la côte et de l’hinterland paient, faisant référence " aux travaux récemment entrepris dans le cadre d’un Masterplan «Sécurité côtière». «Nous poursuivrons ces efforts lors des prochaines années, également à long terme avec le projet ’Vlaamse Baaien 2100". (qui comprend un volet visant l’extension de la Flandre sur la mer, ndlr(Le Soir))», a conclu la ministre.  

Quant à l'auteur de l'article, il ne fait que répéter et affirmer mordicus, ce qui fut écrit à la veille, alors que tous les lecteurs, sont déjà informés que cette tempête n'a pas eu les effets prédits " Le niveau des eaux à la Mer du Nord a atteint dans la nuit de jeudi à vendredi le plus haut niveau jamais enregistré depuis le 1er février 1953.".

(Le Soir et toute la presse flamande)

 

Le gros problème dont souffre la presse dans son ensemble est, le copier-coller. Sans parler des agences de presse (AFP, Belga pour ne citer qu'elles), qui diffusent une information, celle-ci se retrouve relayée par l'ensemble, et généralement sans aucune vérification du bienfondé ou de l'exactitude du contenu. Vient ensuite l'intervention du politiquement correct, et les enjeux des intérêts politiques et lucratifs des lobbies qu'on ne peut contredire malgré l'évidence des gros mensonges qui nous sont servis abondamment.

 

Les mesures de prévention efficaces pour la protection de la côte grâce aux investissements importants dans le cadre du Masterplan "Sécurité Côtière" et du "Vlaamse Baaien 2100", ont montré quoi ? Rien, en guise de sécurité puisqu'il ne s'est rien passé.  Vent plus faible que prévu et absence de marée importante. En revanche, les travaux de rehaussement des plages du littoral, entrepris depuis 2012, dans le cadre de l'élévation du niveau des mers, et de l'accroissement des phénomènes tempétueux, décrétée dans les différents rapports du GIEC, et suite à "Xynthia", ont démontré à quel point l'homme se croit supérieur à la nature en voulant la manœuvrer comme bon lui semble, et l'absurdité de tels travaux, en sommes inutiles. Les photos qui suivent, montrent clairement que tout le rehaussement de la plage est reparti à la mer par l'action des vagues. Une dépense de quelques 300 millions d'euros jusqu'en 2015 pour rien, car ces travaux n'ont strictement servi à rien alors qu'ils ont été entrepris sur toute la longueur des 60km de littoral belge.

xaver.jpg

Cet ouvrage devait constitué un front tant aux marées trop importantes, mais aussi aux vagues lors de tempêtes. Hé bien, une tempête moyenne et déjà, plus rien. Travail inutile, soit un de plus !

 

10/12/2013

Nouvelle cible des pro réchauffement anthropique, l'hi-tech !

 

Vu dans la Presse ce matin. Certains média mettent une photo d'une ville sous un épais brouillard, vive la manipulation de l'opinion publique, s'agit-il de particules fines du au trafic ou d'une tempête de sable.

"La photo montre, mais ce qu'elle en dit n'est que ce qu'on veut vous faire croire !"

Lundi, des chercheurs de l'Université de Toronto qui ont annoncé avoir détecté un nouveau gaz à effet de serre hautement résistant dans l'atmosphère. Le perfluorotributylamine  (PFTBA) est un gaz artificiel, utilisé notamment dans la fabrication d'équipements électriques et électroniques. Selon les analyses des chercheurs de Toronto, le PFTBA a l'effet radiatif le plus puissant de tous les gaz que l'on retrouve dans l'atmosphère.

Un impact de loin supérieur au CO2

Le PFTBA n'a pas été répertorié jusqu'à présent dans la famille des gaz à effet de serre persistant, dont est notamment issu le dioxyde de carbone (CO2), mais en comparaison, sur une période de cent ans, son impact sur le réchauffement climatique est de loin supérieur au CO2, avancent ces chercheurs.

Le même effet que 7.100 molécules de CO2

Une seule molécule de PFTBA dans l'atmosphère a le même effet que 7.100 molécules de CO2, remarque notamment Cora Young, une chimiste de l'Université de Toronto.

Aucun agent capable de l'éliminer

De plus, ce gaz a une très longue durée de vie dans la basse atmosphère avant de se dissiper dans les couches les plus élevées et on ne connaît aucun agent capable de l'éliminer, affirment les cinq scientifiques responsables de cette étude.

Ils préconisent une étude plus approfondie

D'après cette étude publiée dans la revue Geophysical Research Letters, le PFTBA s'inscrirait dans une nouvelle classe de gaz effet de serre persistants. Ils préconisent une étude plus approfondie pour établir leur impact réel sur le climat.

-------------------------------------------------------

Suspecte qu’est cette déclaration ! Voici pourquoi :

Selon l’article, « Ce gaz a une très longue durée de vie dans la basse atmosphère avant de se dissiper dans les couches les plus élevées … » ensuite « D’après cette étude publiée dans la revue Geophysical Research Letters, le PFTBA s’inscrirait dans une nouvelle classe de gaz effet de serre persistants.« et, « on ne connaît aucun agent capable de l’éliminer »

- Durée de vie très longue Dans une telle déclaration pourquoi n’y a-t-il pas suffisamment de preuve et plus encore une durée de vie de ce gaz, même approximative ?

- Persistance Alors que ce gaz reste cantonné dans la basse atmosphère où il a peu d’incidence sur le climat, il se dissipe dans la haute, où il n’a plus d’action sur le climat.

- Aucun agent capable de l’éliminer Pourquoi, puisqu’il se dissipe de lui-même.

Trop de controverses dans cette déclaration pour qu’elle soit entièrement honnête et impartial.

Il semble que les pro du réchauffement anthropique ne savent plus quoi trouver pour justifier leur errance face à la montée de preuves de plus en plus évidentes que le phénomène ait une origine plus naturelle qu’humaine. Visiblement, ils ont trouvé un nouveau créneau à responsabiliser, la technologie électronique (hausse de prix et rendre inaccessible).

Ne perdez surtout pas de vue que le réchauffement est un « business ». Il a été instauré pour vous faire « peur » et vous « contraindre » à investir et a payer du « vert » et du « durable » qui, il faut bien se rendre à l’évidence, reste hors prix, et n’est pas toujours moins polluant.

Je n’ai jamais dit non plus que nous n’y avons pas contribué, mais pas du tout dans les proportions qu’on s’évertue à nous imposer de croire !!


Précision importante : apportée dans un commentaire qui malheureusement est terni par une insulte gratuite et adressée à la mauvaise personne vu que cet article est issu de la Presse nationale et internationale. Dommage.

"La perfluorotributylamine, (nom féminin comme pour toutes les autres amines) n'est pas un gaz. C'est un liquide doté d'un point d'ébullition élevé (180 °C environ). C'est un liquide lourd : densité : 1,883. Il n'a donc aucune tendance à s'évaporer, sauf en le chauffant très fort, on ne voit pas très bien où en est l'utilité. Mais, si on arrive à le faire passer à l'état de vapeur, il ne pourra jamais s'élever dans l'atmosphère du fait de sa masse molaire : 671 g qui fait qu'il est 23 fois plus lourd que l'air !

On peut donc être tout à fait tranquille : ce produit ne deviendra jamais un gaz à effet de serre important, même avec un pouvoir 7000 fois plus élevé que celui du CO2."

Complément :

La volatilisation à partir de l'eau / sol:
De la constante de la loi de Henry pour perfluorotributylamine est estimée comme 5.5X10 4 atm-cu m / mole (SRC) en utilisant une méthode d'estimation de la constante de fragment (1). Cette loi de Henry constante indique que perfluorotributylamine devrait se volatiliser rapidement des surfaces d'eau (2). Sur la base de la loi de cette constante de Henry, la demi-vie de volatilisation d'une rivière de modèle (1 m de profondeur, coulant 1 m / s, vitesse de vent de 3 m / s) (2) est estimée à 2,6 heures (SRC). La demi-vie de volatilisation d'un lac de modèle (1 m de profondeur, écoulement de 0,05 m / s, la vitesse du vent de 0,5 m / s) (2) est estimée à 10 jours (SRC). Cependant, la volatilisation à partir de surfaces d'eau devrait être atténué par adsorption sur les matières en suspension et les sédiments dans la colonne d'eau. La demi-vie de volatilisation estimée à partir d'un étang de modèle est 4.1X10 quatre années si l'adsorption est considéré (3). Henry la constante de perfluorotributylamine indique que la volatilisation à partir de sols humides peut se produire (SRC), mais ce sera atténuée par adsorption. Perfluorotributylamine ne devrait pas se volatiliser à partir des surfaces de sol sec (SRC) sur la base d'une pression de vapeur de 0,552 mm Hg (4).
[(1) Meylan WM, Howard PH; Environ Toxicol Chem 10: 1283-93 (1991) (2) Lyman WJ et al; Handbook of Chemical Property Estimation Methods. Washington, DC: Amer Chem Soc pp. 15-1 to 15-29 (1990) (3) US EPA; EXAMS II Computer Simulation (1987) (4) Riddick JA et al; Organic Solvents: Phys Prop Methods Purification. Techniques of Chemistry, 4th ed. NY, NY: Wiley-Interscience p. 1324 (1986)] **PEER REVIEWED**

03/12/2013

Cri de désepoir, des mytomanes scientifiques du réchauffement !

Vu dans la Presse ce 2 décembre 2013 source RTL-Info.be

Climat: le futur nous réserve des phénomènes extrêmes

La température globale du continent européen augmentera de 1 à 5°C d'ici la fin du siècle, avec un réchauffement plus rapide en Europe du sud en été et plus rapide dans le Nord et l'Est en hiver, selon la centaine de simulations menées depuis 3 ans dans le cadre de ce projet Euro-Cordex.

Plus précis que le Giec

Ce travail, mené en parallèle par 27 instituts de recherche, vise à "préciser les projections" réalisées dans le cadre de la rédaction du dernier rapport du Groupe d'experts intergouvernemental sur l'évolution du climat (Giec) en les ramenant "à l'échelle des impacts du changement climatique et des mesures d'adaptation pouvant être prises par les responsables politiques et les industriels", explique à l'AFP Robert Vautard, spécialiste des simulations climatiques au Centre national français de la recherche scientifique (CNRS).

 A 12 km près

"Les projections du GIEC ont une résolution de l'ordre d'un point tous les 100 à 200 km. Elles ont l'avantage d'être globales mais ne peuvent pas répondre à toutes les interrogations", comme les phénomènes de pluies intenses, ajoute le chercheur. Le programme a donc consisté à décliner les modèles globaux à des échelles plus serrées -jusqu'à des mailles de 12 km pour les plus précises- permettant ainsi de "zoomer" sur le continent européen et essayer de mieux anticiper la météo du futur.

--------------------------------------------------------------------------------------------------------

Constat :

Cela reste "des simulations", tout comme les modèles de météorologie, ils n'ont "AUCUNE" certitude, ce ne sont "que" des prévisions avec leur aléa. De plus le changement du climat est très loin d'être global, et permanent en témoignent les photos (webcams) et relevés ci-dessous (à venir). Il ne faut pas perdre de vue aussi que les normes saisonnières que l'on nous sert habituellement ne peuvent être un critère de fiabilité vu qu'elles sont basées sur des normes de il y a à peine 20 ans alors que l'on constatait le début de  ce changement climatique, ce qui implique la fausseté de ces dites simulations. Depuis lors il est observé un arrêt de cette hausse des températures, mais une frange de scientifiques dont le GIEC fait partie, liés à des lobbys, ne veulent pas l'admettre de peur de perdre toute leur crédibilité, vu qu'ils ont incité des gouvernements à élaborer des actions politiques sur cette base climatique, en les ayant poussé à créer de nouveaux enjeux et investissements financiers colossaux, qu'ils ne veulent pas perdre.

Manipulation évidente de la réalité par les médias !

Lors de la conférence de Stockholm de septembre dernier, un exposé a été passé sous silence par les médias. Une constatation et non une projection, montrait que depuis 1998 la température de surface de la terre n'a évolué qu'au rythme de 0,05° C par décennie, alors que le régime de croisière depuis 1951 était de 0,12°C et que les projections prévoyaient pour les 10 années écoulées une augmentation de 0,21°C, soit 4 fois plus que ce qui est constaté, alors que les rejets de CO² eux, ne cessent d'augmenter !!

(Cliquez sur les images pour les agrandir)

Températurescanular,climat,contrevirite,manipulation,mensonge,mystification

 

 

 

 

 

 

canular,climat,contrevirite,manipulation,mensonge,mystificationTarnaby (Fjord nord-ouest Suède)

 

 

 

 

 

 

 

canular,climat,contrevirite,manipulation,mensonge,mystificationZermatt (Suisse, en arrière plan le Mont Cervin)

 

 

 

 

 

 

Ce qu'on vous cache, ce sont les anomalies constantes dans la Ionosphère en voici le cliché du jour, il provient du Jet Propulsion Laboratory de la NASA. Les deux images montrent le TEC (Total Electron Content).

canular,climat,contrevirite,manipulation,mensonge,mystification

 

 

 

 

 

 

 

Et celui de l'IPS australien

canular,climat,contrevirite,manipulation,mensonge,mystification