ALI

Affichage des articles dont le libellé est sciences&génie. Afficher tous les articles
Affichage des articles dont le libellé est sciences&génie. Afficher tous les articles

samedi 10 mai 2014

Comment puis-je choisir la meilleure entreprise d;énergie solaire?

L’installation  de  système d'une énergie solaire pourrait être une grande entreprise financière, rendant ainsi certain que vous avez choisi les bons entrepreneurs de l'énergie solaire est important. Les entrepreneurs de l'énergie solaire que vous choisissez doivent être agréés, expérimentés, et en mesure de vous fournir une estimation à la fois pour le prix de l'installation et les économies que vous réalisez une fois l'installation terminée. Ils devraient également avoir accès à des informations sur les promotions disponibles dans votre région pour le coût de l'équipement.

Comme pour tout projet de rénovation, il est préférable d'obtenir des soumissions de plusieurs entrepreneurs de l'énergie solaire avant de choisir un. Une des premières choses à demander entrepreneurs potentiels est de savoir s'ils sont agréés et cautionnés et qu'ils soient expérimentés dans l'installation de l'énergie solaire projets. Vérification avec le Better Business Bureau ou d'une association de l'entrepreneur local est une autre façon de vérifier les informations d'identification des entrepreneurs d'énergie solaire. Demandez des références d'anciens clients.

Une fois qu'il a été déterminé que l'entrepreneur a le permis et l'expérience nécessaires, il est important de savoir si il va faire le travail du début à la fin, ou si les sous-traitants seront impliqués. C'est une chose de placer les panneaux solaires, mais les panneaux doivent également être correctement et en toute sécurité câblé à un convertisseur. Assurez-vous que l'entrepreneur de l'énergie solaire a la connaissance électrique et de la formation pour compléter la tâche.

Cherchez à savoir si il ya des incitations ou des dégrèvements fiscaux offerts pour la conversion de l'énergie solaire dans votre région. Si les entrepreneurs de l'énergie solaire dont vous parlez avec ne les mentionnent pas, assurez-vous que vous demandez. L'entrepreneur doit avoir accès à tous les documents nécessaires pour déposer les ristournes et rabais. Soyez conscient que dans certaines régions, il faudra peut être certifié pour que votre installation d'énergie solaire à la qualification d'entrepreneurs.

Lorsque vous demandez des soumissions, assurez-vous les critères demandés sont les mêmes pour qu'ils puissent être comparés avec confiance. Les offres doivent comprendre des estimations de la quantité d'électricité le système génère et ce que vos économies seront une fois de faire la transition. Demandez ce que les garanties et les garanties viennent avec le nouveau système.
Avoir une idée de ce que vous recherchez avant d'appeler les entrepreneurs de l'énergie solaire fera tourner le processus tout en douceur, faire des recherches. Faire vos devoirs à l'avance peut vous donner un avantage. Bien que la technologie de l'énergie solaire peut être en constante évolution, le processus d'embauche d'un entrepreneur de l'énergie solaire est le même que travailler avec tout autre professionnel qui travaillera sur votre maison.

Qu'est-ce qu'un tube à adsorption?

Un tube à adsorption est un flacon en verre rempli avec des matériaux absorbants spécialisés utilisés pour tester les concentrations atmosphériques de substances spécifiques, y compris des gaz dangereux. Les tubes sont utilisés en conjonction avec une pompe spécialement calibré qui aspire l'air de l'atmosphère d'essai à travers le tube à un débit contrôlé. Les substances cibles présentes dans l'air sont piégées dans les matériaux absorbants appropriés. Après le prélèvement, le tube est scellé et envoyé à un laboratoire pour analyse. Il existe plusieurs classes de tube de sorbant contenant chacune une sélection spécifique de matériaux absorbants utilisés pour tester les différents groupes de contaminants dans l'air.

La concentration exacte de contaminants dangereux tels que les gaz et les fumées dans l'air sont souvent difficiles à déterminer avec précision. Cela peut conduire à des contaminants qui s'accumulent au point où des explosions et intoxications peuvent se produire. Ces questions sont particulièrement préoccupantes dans des environnements tels que les mines, les usines chimiques et les raffineries de pétrole, où la présence de gaz et de vapeurs toxiques ou explosives sont une réalité opérationnelle en cours. Bien qu'il existe différents types de dispositifs de prélèvement et d’analyse utilisée pour détecter ces substances, l'un des plus précis, et, en effet, l'un des plus simples, est le tube à adsorption.

Le composé d'une pompe d'aspiration et une série de tubes de verre simple restreintes à chaque extrémité et rempli avec une sélection de matériaux absorbants ou absorbants, le système de tube à adsorption est certainement l'un des bas-tech de tous les appareils d'essai les plus. Aussi simples qu'elles peuvent être, ils sont l'un des plus précis, offrant cohérentes, fiables lectures de concentration de contaminants. Le fonctionnement du système est également simple, nécessitant l'insertion d'un tube de sorbant ouverte sur l'extrémité d'une tige creuse, qui est reliée par l'intermédiaire d'une longueur de tuyau de la pompe. L'extrémité ouverte du tube est maintenue dans l'atmosphère de test pour le cycle de pompe à calage. Lorsque le cycle est terminé, le tube est scellé et envoyés à un laboratoire pour que les contaminants piégés dans les sorbants analysés.

La précision du système est sous-tendue par le taux calibré à laquelle la pompe à vide aspire l'air à travers le tube sur une période de temps de jeu et la vitesse d'absorption connu des sorbants. Une gamme de types de tubes, chacun avec une combinaison spécifique d'agents de sorption, se prête également la polyvalence du système en permettant atmosphères d'essai à échantillonner pour la présence d'une gamme de substances cibles. Les pompes peuvent également comporter une série de cycles de pompage en fonction des conditions ambiantes pertinentes, les types de tubes, et les contaminants ciblés.

Qu'est-ce que le méthylmercure?

Le méthylmercure est une forme organique du mercure qui peut causer des problèmes environnementaux, car il est facilement absorbé et difficiles à éliminer. Il peut être produit directement par des procédés industriels, et aussi par des réactions physiques de l'environnement. Préoccupations au sujet de l'empoisonnement au méthylmercure sont la base des recommandations visant à limiter les femmes enceintes à partir de la consommation de certains poissons. Les organismes environnementaux dans les régions où ce composé peut être un sujet de préoccupation effectuer des tests périodiques pour vérifier les signes de niveaux dangereusement élevés afin qu'ils puissent avertir la population en général.

Chimiquement, ce composé se compose d'un groupe méthyle lié à un atome de mercure, formant un ion chargé positivement. Il se fixe facilement à des protéines, et ne libère pas facilement, ce qui en fait un sujet de préoccupation dans le milieu naturel. Lorsqu'un organisme absorbe le méthylmercure, il ne peut pas éliminer le cation. Si cet organisme est à son tour mangé par un organisme plus grand, il obtient une charge de mercure toxique avec son repas. Cela crée un effet bioaccumulables, où les concentrations du composé peut devenir élevée chez les animaux loin dans la chaîne alimentaire, comme les requins.

Historiquement, certains procédés industriels produisent méthylmercure et entreprises a publié le composé directement dans l'environnement, la création de la pollution. Il a également été utilisé pour des activités comme le traitement de grain pour éviter les infestations d'insectes, ce qui a parfois donné lieu à des incidents lorsque les animaux mangent le grain, puis ont été consommés par les humains. Les règlements environnementaux ont réprimé cette pratique, la réduction de la quantité produite directement par les humains. Le mercure élémentaire continu à être produit, cependant, la plupart du temps par la combustion de combustibles fossiles.

L'entrée du mercure élémentaire dans l'environnement ne signifie pas nécessairement méthylmercure se forme. Il doit tomber dans des endroits aux organismes spécialisés anaérobies qui méthylent, en ajoutant le groupe méthyle nécessaire. En outre, le processus de déméthylation, où le composé se décompose doit être suffisamment lente pour permettre son accumulation. Lacs et cours d'eau sont des sites communs pour cette transformation, qui peuvent affecter les animaux de s'appuyer sur eux comme l'eau et source de nourriture.

Les êtres humains peuvent consommer de petites quantités de méthylmercure sans problèmes importants, mais si elle commence à s'accumuler, ils peuvent développer des symptômes neurologiques. Il est particulièrement dommageable pour le fœtus et les jeunes enfants, qui ont rapidement croissantes système nerveux. Des troubles neurologiques peuvent se développer en raison de l'exposition au méthylmercure dans l'alimentation ou à travers le placenta, dans le cas d'un fœtus. Ce sont irréversibles et peuvent varier en gravité selon le moment et la taille de la dose.

Quelle a été la période du Crétacé?

Le Crétacé est le troisième de trois périodes de l'ère mésozoïque, «l'ère du milieu" de la vie multicellulaire complexe sur la Terre. La période Crétacé s'étend de la fin de la période jurassique, il ya environ 145 millions d'années, à environ 65 millions d'années, lorsque le Crétacé-Tertiaire événement d'extinction anéanti la plupart des dinosaures. Les ancêtres des oiseaux modernes sont des dinosaures qui ont survécu.

La période Crétacé était une période très importante pour la vie sur Terre. La diversité et la taille des dinosaures étaient à son comble. Insectes ont commencé à diversifier ainsi. Le clade Maniraptora évolué, un clade de transition entre les dinosaures et les oiseaux. ptérosaures a continué à dominer le ciel, spécialisée dans une niche écologique semblable à oiseaux modernes pour plus de 150 millions d'années.

Les océans du Crétacé commencé hors d'être dominé par les plésiosaures et pliosaures, comme ils l'avaient pour la plupart de l'ère mésozoïque. Mais par la période du Crétacé moyen, ils ont commencé à baisser, et les requins modernes, des raies et certaines espèces de poissons deviennent plus abondantes. Les mosasaures , quelque chose comme un croisement entre un serpent et un varan qui savaient nager, étaient la principale prédateur marin à la fin de la période du Crétacé. La plus grande de ces grandi à 17 m.

A l'ouverture de la période du Crétacé, il y avait une période de refroidissement, la continuation d'une tendance qui se passait tout au long du Jurassique. Les températures à ce moment-là étaient encore plus chaud qu'aujourd'hui, mais plus proche de la plupart des autres climats du Mésozoïque. Vers le milieu de la période du Crétacé, l'activité volcanique ramassé, jetant le dioxyde de carbone dans l'air et l'augmentation de la température une fois de plus. Dans les océans, d'énormes crêtes élargies, être rempli par panaches mantelliques par le bas, créant de vastes mers peu profondes.

En raison d’un lent gradient de température entre l'équateur et les pôles, il y avait moins remontée dans les océans de la planète, ce qui les rend nettement plus chaud et plus stagnante que ceux d'aujourd'hui. Pour les périodes géologiquement courts, les océans tropicaux peuvent avoir atteint des températures aussi élevées que 42 ° C (107 ° F), avec une moyenne de 37 ° C (98,6 ° F). À la fin de la période du Crétacé, niveau de la mer ont chuté de niveau à un moment antérieur à la période mésozoïque.

Le Crétacé était l'âge d'or de géants sauropodes , y compris Brachiosaurus, Seismosaurus, et Supersaurus. Le plus long parmi ceux-ci étaient de 40 mètres (130 pi), en longueur, pesant 100 tonnes ou plus, avec une espèce possibles, Bruhathkayosaurus, atteignant jusqu'à 240 tonnes. À ces tailles, ils ont approché le poids maximum d'un animal terrestre peut être et encore supporter son propre poids.

La période Crétacé a été porté à un près d'un météore géant. Ceci est démontré par iridium dépôts à travers le monde. Iridium est très rare dans la croûte de la Terre, mais en abondance dans les comètes et les astéroïdes.

Qu'est-ce que les dépôts acides?

Le dépôt d’acide est le dépôt d'acide sous quelque forme que sur les objets de l'environnement, qu'elles soient naturelles ou d'origine humaine. Dans la plupart des cas, le dépôt acide prend souvent la forme de pluies acides, qui obtient souvent le plus d'attention parce qu'il est perçu comme étant le plus dangereux. D'autres formes incluent à la fois solides et des gaz et, alors qu'ils ne peuvent pas poser autant de risques, ils peuvent encore être préjudiciables aux objets qu'ils touchent.

Afin que le dépôt ait lieu, l'acide doit d'abord être présents dans l'atmosphère. Cela se produit le plus souvent de la combustion du charbon dans les centrales de production d'électricité. Le charbon produit une substance connue sous le nom de dioxyde de soufre. Une fois dans l'air, il se mélange avec d'autres éléments, principalement de l'oxygène, de devenir acide sulfurique. Une partie de ce matériau tombe finalement à la Terre.

Les pluies acides sont tout simplement les dépôts acides sous forme liquide. L'acide sulfurique se trouve dans les nuages, qui se condensent et les gouttelettes d'eau finissent par devenir tellement lourd qu'ils tombent. La pluie acide peut effectivement tomber de nombreux miles de l'endroit où l'usine de charbon réelle se trouve, simplement en raison de la configuration des vents, et le temps qu'il faut pour former de l'acide et à l'automne.

Les dépôts acides peut également se produire à travers la forme de particules acides, qui sont solides, et les vapeurs acides, qui sont des gaz. Comme l'acide fait son chemin de retour à la surface de la planète, il atterrit sur d'autres objets, tels que des bâtiments, des arbres et des lacs. Dans la plupart des cas, ces objets ne sont pas préparés à faire face à l'introduction de niveaux élevés d'acide et sont donc affectées négativement.

Le principal dommage est fait pour les bâtiments et les voitures, ainsi que les arbres et les systèmes d’eau, comme les lacs et les rivières. Les dépôts acides peuvent décaper la peinture hors bâtiments et les voitures, et même conduire à la détérioration structurelle. Dans les forêts, il peut causer la mort des arbres en grand nombre que les plantes tentent de faire face à un pH différent de celui qu'ils préfèrent. La même chose est également vrai des systèmes d'eau, où les poissons et d'autres animaux sauvages peuvent être lésés à cause des dépôts acides.

Arrêt dépôt d'acide est donc devenu une préoccupation majeure pour de nombreux pays du monde. Bien qu'il ne soit pas possible d'éradiquer complètement les centrales au charbon dans un avenir proche, le passage à des formes d'énergie plus propres, sans charbon, ou même en utilisant les technologies du charbon propre, peut vous aider. Par exemple, le dépôt acide peut être pratiquement éliminé par l'utilisation d'épurateurs qui éliminent le soufre à partir des émissions que produisent les centrales à charbon.

Quelle est Citoyen de la science?

Le terme «science citoyenne» est utilisé pour désigner les projets scientifiques qui exploitent des laïcs en tant que bénévoles. La science citoyenne obtient personnes impliquées et intéressées dans la science et le monde naturel, et il contribue également énormément les scientifiques, leur permettant de se lancer dans des études de très grande portée et générer une grande quantité de données pour travailler avec. Un certain nombre d'organisations de parrainer des projets de science citoyenne en cours ou annuels comme le Recensement des oiseaux de Noël de la Société Audubon, et des informations sur ces projets est généralement facilement disponibles sur leurs sites Web et dans leurs bureaux, pour les gens qui sont intéressés.

L'idée d'enrôler des laïcs dans la recherche scientifique est assez solide, à partir d'un certain nombre de points de vue. Pour les chercheurs, la science citoyenne peut accroître considérablement la portée d'une étude sans être coûteux. Par exemple, une enquête sur les oiseaux à l'aide de bénévoles peut couvrir la totalité de l'Amérique du Nord dans quelques semaines quand il est bien organisé, au coût de coordonner les organisateurs et la distribution du matériel dont ils ont besoin. Payer les scientifiques à effectuer la même enquête serait très coûteux, et il ferait l'étude plus difficile à faire, comme le nombre de personnes dans le domaine serait limité.

Pour les citoyens, la science citoyenne peut être amusant et parfois très intéressant. De nombreux bénévoles participent à la science citoyenne parce qu'ils sont intéressés et enthousiastes à l'environnement, et ils aiment l'idée d'être en mesure d'aider la recherche scientifique. Citoyen de la science leur donne aussi l'occasion de réseauter avec d'autres bénévoles et des scientifiques dans le domaine. Les enquêtes annuelles d'oiseaux, par exemple, peuvent attirer des gens de tous les âges qui aiment sortir pour quelques heures et prendre des notes sur ce qu'ils voient.

Outre la participation sur le terrain, la science citoyenne peut également avoir lieu près de chez eux. Beaucoup d'universités, par exemple, ont des bourgeons et des programmes de surveillance de la feuille qui invitent les jardiniers locaux de soumettre des données à partir de leurs jardins, et ornithologues amateurs de basse-cour et les observateurs de la faune peuvent également fournir des données à partir de leurs observations à des projets de science citoyenne. Intérieur de la maison, l'informatique distribuée est une forme de science citoyenne qui utilise l'ordinateur le temps d'inactivité de traiter l'information, en utilisant des milliers d'ordinateurs dispersés à travers le monde.

Si vous êtes intéressé à contribuer à un projet de science citoyenne, vous devriez commencer par l'identification d'un sujet d'intérêt pour vous. Si, par exemple, vous trouverez des plantes indigènes intéressants, contactez votre société de plantes indigènes et demandez si vous pouvez prendre part à une enquête ou une séance d'identification. Vous pouvez également choisir d'explorer quelque chose d'entièrement nouveau en contactant une organisation de nature comme la Société Audubon ou la conservation de la nature et offrant votre aide en tant que citoyen scientifique .

Qui est Marvin Minsky?

Marvin Minsky, né en 1927, a été l'un des plus grands noms dans le domaine de l'intelligence artificielle (IA) pour la dernière moitié du 20ème siècle et dans les premières années du 21ème siècle. Il est considéré comme l'un des pionniers les plus importants du terrain, et a travaillé dans ce depuis avant même formellement conçu en 1956. Il continue à être actif intellectuellement à ce jour, la publication d'un livre intitulé La machine à émotions en Novembre 2006, et apparaissant à des conférences de temps en temps.

En 1951, Marvin Minsky inventé SNARC, le premier artificielle réseau de neurones (ANN), qui a donné naissance à tout un champ de AI. Avec Seymour Papert, il a créé des programmes en utilisant le logo, l'un des premiers langages de programmation. Avec Papert il a écrit les Perceptrons de livres, fondamentales dans le domaine des réseaux de neurones artificiels. L'idée de réseau neuronal est unique en ce qu'elle n'exige pas des programmeurs de spécifier chaque ligne de code, mais pourrait être "cultivé" et formé de manière organique.

En 1961, Marvin Minsky a inventé le microscope à balayage cofocal, le prédécesseur du microscope confocal à balayage laser, qui produit à haute résolution, des images en point de spécimens d'épaisseur en biologie. Il a fallu attendre la fin des années 80 que la technologie nécessaire pour exploiter pleinement les principes Minsky première élucidé ont été développées, mais après il est devenu possible, microscopes cofocal était la nouvelle norme.

En 1963, Marvin Minsky a inventé le premier affichage graphique installée sur la tête, largement considéré décennies d'avance sur son temps. Comme le microscope cofocal, il serait décennies avant que les pièces peuvent être améliorées suffisamment pour être léger et efficace. A ce jour, il n'existe pas un affichage graphique de tête monté un très grand succès, même si quand on est enfin au point, nous pouvons être sûrs que Minsky sera mentionné que le concepteur initial de l'idée.

Marvin Minsky est surtout associée avec le MIT Media Lab et le laboratoire d'IA du MIT, où il co-fonde. Dans son article provocateur, "Est-ce que les robots inhérents à la Terre?", Il spécule sur un avenir où les humains se confondent avec des robots pour créer une course posthuman. Il est aussi un fervent partisan de la cryogénisation, la pratique de la congélation du cerveau pour le potentiel futur renouveau.

En quoi consiste en archéologie médiévale?

L'archéologie médiévale  est l'étude de la culture humaine, de la chute de l'Empire romain au 5ème siècle de notre ère, à l'augmentation de la Renaissance à la fin du 15ème siècle. L'étude de cette période est un vaste domaine, y compris l'examen d'objets et de colonies médiévales, le développement d'une histoire cohérente à travers des documents anciens, et la compréhension de la façon dont le commerce et la technologie progressent dans cette ère. Archéologie médiévale se réfère souvent au développement culturel à travers l'Europe, l'Afrique du Nord et au Moyen-Orient, bien que les études de la culture américaine et asiatique tôt peuvent également être inclus.

Après la chute de l'Empire romain, l'ensemble du sous-continent européen a été lancé à partir d'une période de pièce par rapport à une lutte chaotique. Tribus guerrières dans toute la région conquise et reconquise un de l'autre, conduisant à la fusion des cultures autrefois distinctes et la destruction de nombreuses sociétés antérieures. En même temps, la montée du christianisme en Europe a conduit à de vastes changements dans les pratiques culturelles, l'avènement des croisades, et de grands changements dans les relations gouvernementales avec l'église. Alors que les nations fortes ont fusionné, les rois et les reines puissantes ont commencé une période grisante de l'exploration, conduisant à de nouvelles découvertes, des adaptations culturelles, et la recherche pour le Nouveau Monde. Le chaos incroyable de cette période constitue l'essentiel de l'archéologie médiévale, que les archéologues tentent de créer une sorte de calendrier précis pour un millénaire très fragmenté.

Certains archéologie médiévale se fait par l'excavation et l'analyse des artefacts. Articles médiévaux trouve couramment comprennent des objets métalliques, tels que les pièces de monnaie, bijoux et pendentifs. Certaines fouilles se concentrent également sur déterrer les os de villages médiévaux, tels que le 7ème siècle village de Sutton Hoo en Angleterre. Ces fouilles donnent archéologues des indices importants sur le passé, y compris ce que la technologie, comment les rituels funéraires ont changé au fil du temps, et comment les citadins vivaient leur vie quotidienne.

L’archéologie médiévale est également entreprise à travers l'étude de livres et de manuscrits anciens. Bien que l'alphabétisation était à un taux extrêmement faible pour la population en général tout au long de l'époque médiévale, les moines, les fonctionnaires et les chercheurs judiciaires souvent consacré leur vie à la création d'histoires et de légendes, ainsi que les textes religieux et les documents officiels. En passant au crible ces précieuses reliques, les archéologues peuvent aider à créer une chronologie des événements tout au long de la période, ainsi que connaître les codes juridiques et les contrats de l'époque.

L'importance de l'archéologie médiévale réside dans sa capacité à donner un aperçu de l'évolution de la culture humaine moderne. Les découvertes, les conquêtes, et de la culture de l’époque médiévale ont donné lieu à la grande époque de l'exploration, la révolution culturelle de la Renaissance, le développement de la démocratie, et la création de modernes économie. La poursuite de la recherche de la compréhension de la période médiévale peut potentiellement débloquer de nouveaux concepts ou expliquer anciens mystères, voire des centaines d'années après l'événement. Archéologues médiévaux servent de détectives du monde antique, dont chaque découverte a le potentiel de changer l'avenir de l'humanité.

Qu'est-ce que l'uranium appauvri?

L’uranium appauvri, ou de l'uranium appauvri, la substance est laissé après la fraction enrichie en uranium 235 a été retiré de l'uranium naturel. Lorsque le potentiel de l'uranium pour la production d'énergie et les armes a d'abord été réalisé, l'uranium appauvri a été traité comme un sous-produit du processus de fabrication. Cependant, les chercheurs ont découvert que, depuis l'uranium appauvri était très dense, il était idéalement adapté à une utilisation dans l'armure et le réservoir pénétrant armes. Il y avait aussi des applications potentielles comme une forme de ballast. En conséquence, l'uranium appauvri a commencé à être utilisé activement, principalement par les militaires.

L'uranium est un élément blanc argenté d'origine naturelle aux propriétés radioactives. Il a de nombreux isotopes, y compris l'uranium 235 et de l'uranium 238, l'isotope qui forme la plus grande fraction de l'uranium appauvri. Il n'est pas aussi radioactif que le plutonium, un élément connexe, mais il peut être enrichi par extraction de l'uranium 235 et utilisé pour les armes nucléaires et les centrales électriques. L'uranium enrichi est assez fort pour utiliser dans les grandes armes à grande échelle, comme l'a prouvé en 1945 quand «Little Boy, "une bombe nucléaire fait l'uranium enrichi, a explosé sur Hiroshima.

Beaucoup de personnes dans le monde sont préoccupés par l'utilisation d'uranium appauvri dans les armes, car il a un potentiel de contaminer l'environnement. Radioactivité côté, l'uranium appauvri est un métal lourd, et il peut avoir un impact grave s'il est libéré en grande quantité. Armes fabriquées avec de l'uranium appauvri sont aussi généralement mélangé avec du plomb et d'autres métaux lourds, la formation d'un risque de contamination important. La faiblesse de la radioactivité de l'uranium appauvri est également un sujet de préoccupation.

Les rmes fabriquées avec de l'uranium appauvri ont été utilisées en Irak et dans les Balkans largement, ainsi que des formes plus limitées dans d'autres pays. Les enquêtes menées par les agences internationales ont révélé une augmentation des niveaux de radioactivité dans les régions où l'uranium appauvri a été utilisé. Chars détruits par des tours à l'uranium appauvri ont été souvent abandonnés par la route et étudiés par les membres de la population locale. Le problème est que les populations locales pourraient être exposées à un rayonnement à travers l'équipement militaire abandonné, et de nombreuses organisations ont fait pression pour le nettoyage de l'équipement contaminé par l'uranium appauvri, ainsi que d'un moratoire sur l'utilisation de la substance. Les soldats sont aussi à risque de l'uranium appauvri, à travers la réalisation tours et d'être dans des situations où rounds à l'uranium appauvri explosent.

Aucun organisme ne réglemente l'utilisation des armes à l'uranium appauvri, qui est fabriqué par de nombreuses nations. Il n'est pas techniquement classé comme toxique ou nucléaire, mais il est clairement toxique. Divers groupes de personnes ont suggéré que l'uranium appauvri devrait être plus étroitement réglementée et contrôlée, en particulier aux États-Unis et en Europe. Certaines personnes croient que la substance est liée au syndrome de la guerre du Golfe, avec la hausse des défauts de naissance dans les régions où l'uranium appauvri a été utilisé. Le lien avec des malformations congénitales a été soutenu par la recherche menée par plusieurs organisations, dont l'armée américaine, ce qui suggère que l'uranium appauvri peut avoir un impact sur les organes reproducteurs.

Qu'est-ce qu'un microbicide?

Un microbicide est l'un d'un certain nombre de substances qui ont la capacité de tuer ou affaiblir des micro-organismes, y compris les virus, les bactéries ou les champignons. Les principaux groupes de microbicides sont des bactéricides, fongicides, et les microbicides virales. Bactéricides peuvent à leur tour être subdivisés en désinfectants, utilisés sur des objets inanimés, des antiseptiques, utilisé à l'extérieur sur les humains et les animaux, et les antibiotiques, qui travaillent habituellement à l'intérieur.

Le terme microbicide est très souvent utilisé pour se référer spécifiquement à microbicides topiques conçus pour la prévention de diverses maladies sexuellement transmissibles. Ces substances sont typiquement des microbicides qui peuvent être appliqués à l'intérieur dans le vagin ou le rectum sous forme de gels, de crèmes, de suppositoires, ou les douches. Ils peuvent également prendre la forme d'une éponge ou d'un autre dispositif qui est inséré dans le vagin ou le rectum, et qui libère la substance microbicide lentement sur une période de temps. Ces microbicides pourraient être conçus comme mécanisme de protection primaire contre la maladie, ou comme une forme de protection supplémentaire en cas d'un préservatif doivent fuir ou se détacher pendant les rapports sexuels.

Il y a un certain nombre de mécanismes par lesquels les microbicides peuvent tuer ou les micro-organismes des méfaits. Certains types de microbicides perturbent les membranes cellulaires externes des bactéries et des virus. Les membranes cellulaires sont fabriquées à partir de lipides, et si la membrane est endommagée, l'eau peut chercher dans la cellule du micro-organisme et le tuer. Ces types de microbicides sont appelés microbicides détergents, ou des tensioactifs, et présentent l'inconvénient qu'elles nuisent souvent des cellules humaines saines ainsi que les micro-organismes qu'ils sont censés protéger.

Il y  a un certain nombre d'autres mécanismes de microbicides; une d'entre elles est l'action de la modification du pH de l'environnement de l'hôte, typiquement le vagin de la femme, pour la rendre plus alcalin, et donc le rendre un environnement plus hostile aux micro-organismes. Certains microbicides, appelés inhibiteurs de la réplication, empêchent les virus de se reproduire. D'autres, appelés inhibiteurs de l'entrée ou les inhibiteurs de fusion, arrêter les virus et les bactéries d'adhérer aux cellules humaines qu'ils tentent d'attaquer.

Le développement de microbicides implique souvent la recherche dans la création de substances qui combinent deux ou plusieurs actions anti-microbiennes différentes dans un seul médicament. La recherche en action microbicide est d'un grand intérêt pour les scientifiques qui étudient le virus de l'immunodéficience humaine (VIH). Les essais sur les microbicides suggèrent que même si un microbicide peut réduire les infections au VIH par un pourcentage modeste, si la substance a été largement utilisé, alors un grand nombre de nouvelles infections à VIH pourraient être évités.

Quels sont les différents matériaux de nanotechnologie?

Les matériaux de nanotechnologie  sont en train de construire des objets entre 1 et 100 nanomètres, avec un seul nanomètre équivaut à un milliardième de mètre. Essentiellement, tous les matériaux trouvés dans la nature sont construits à l'échelle nanométrique, mais les objets manipulés par les humains au niveau moléculaire pour construire quelque chose de nouveau constituent matériaux nanotechnologiques. Le meilleur exemple précoce de cette technologie est un nanotube de carbone, réalisé en changeant les dimensions des molécules de carbone dans un treillis en nid d'abeilles. Les nanotubes de carbone créent une feuille de graphite qui est beaucoup plus léger et plus résistant que l'acier. Les produits tels que des cadres de vélos, les batteries et les raquettes de tennis sont des exemples de ce qui peut être fabriqué à partir de nanotubes de carbone.

Un exemple courant de matériaux nanotechnologiques est le dioxode de titane, qui est manipulé pour créer des produits tels que la crème solaire qui bloque les rayons ultraviolets (UV), tout en permettant un bronzage. Un autre produit important de dioxyde de titane est un panneau solaire qui intensifie l'énergie reçue à partir de la lumière du soleil, ce qui pour une source d'énergie plus efficace et puissant. Les chercheurs ont constaté que l'oxyde de zinc est un autre exemple de matériaux nanotechnologiques avec des avantages similaires à l'oxyde de titane, y compris la capacité de bloquer les rayons UV et d'intensifier les effets de la capture de lumière dans les panneaux solaires.

Les particules d'argent et d'or sont des matériaux issus des nanotechnologies puissants, offrant de nouvelles solutions dans un large éventail d'industries. Argent nanoparticules, par exemple, ont été claironnées comme la solution pour tout, de mieux dentifrice à une guérison possible de maladies infectieuses. Les nanoparticules d'or ont également des applications médicales potentiellement importantes, de détecter le cancer à un stade précoce pour guérir l'arthrite. À la fois l'argent et des nanoparticules d'or peuvent être utilisés pour le câblage électronique, ce qui permet une plus grande flexibilité et une puissance que les méthodes traditionnelles.

Beaucoup de matériaux nanotechnologiques proviennent de sources les plus courantes ainsi. Les particules d'argile manipulées au niveau de nano créer un polymère solide qui est également plus léger et plus résistant aux températures. En général, les polymères à base d'argile peuvent être utilisés dans des vêtements, des articles ménagers et des pièces automobiles. L'industrie du bâtiment est la recherche des moyens d'améliorer les éléments communs tels que le ciment et le verre pour créer de nouveaux matériaux qui sont plus faciles à produire, et plus respectueux de l'environnement économes en énergie.

Beaucoup de matériaux nanotechnologiques ont été controversés. Manipulation de matériaux au niveau moléculaire conduit à la possibilité de toxicité à la fois des matériaux eux-mêmes et le sous-produit. D'autres préoccupations sont la consommation d'énergie dans la création de matériaux et le fait qu'ils ont encore à prouver qu'ils détiennent dans le temps. Malgré cela, matériaux nanotechnologiques sont développés en raison de la promesse d'une plus grande innovation pour l'électronique, le textile, la fabrication, et de leur effet potentiellement révolutionnaire de la médecine.

Qu'est-ce qu'un génome mitochondrial?

Un  génome  mitochondrial est un ensemble de l'information génétique portée dans la mitochondrie, des organites présents dans les cellules d'organismes eucaryotes tels que les humains et les autres animaux complexes. Cet ADN est distinct de celle effectuée dans les chromosomes de la cellule à noyau, qui constituent l'essentiel du génome de l'ensemble de l'organisme. Les chercheurs explorent l'héritage génétique ont séquencé le génome mitochondrial d'un certain nombre d'organismes, y compris les humains, à recueillir des informations sur cet aspect assez unique de la génétique.

Plusieurs caractéristiques définies du génome mitochondrial en dehors de tout autre matériel génétique dans le corps. Tout d'abord, elle est héritée uniquement par la mère, ce qui peut avoir des conséquences utiles pour le suivi des changements générationnels, relation, et l'héritage. De plus, il a un taux de mutation anormalement élevé par rapport au génome chromosomique. En outre, on pense être les traces d'ADN à partir d'organismes qui étaient autrefois totalement indépendantes, et par la suite absorbé par les cellules vivantes début pour procurer des avantages symbiotiques.

37 gènes sont portés dans le génome mitochondrial. Ils transportent l'information les mitochondries utilisent pour remplir leur fonction première, qui est la production d'énergie pour les activités cellulaires. Les mitochondries peuvent produire plusieurs protéines clés, le transfert de l'ARN et l'ARN ribosomique en utilisant les modèles trouvés dans leur ADN. Le séquençage du génome mitochondrial peut fournir des indices utiles sur l'héritage non seulement au sein des espèces, mais à travers l'histoire de l'évolution. Les chercheurs ont, par exemple, utilisé cet ADN pour suivre les groupes de personnes à simples ancêtres féminins communs.

Les études peuvent aussi être importantes pour la compréhension des troubles mitochondriaux. Ces conditions peuvent être causées par des erreurs dans l’ADN mitochondrial qui érodent la fonction de ces organelles importantes. Sans fonctionnement des mitochondries, les cellules ne peuvent pas être en mesure d'effectuer des tâches clés. Chez les personnes atteintes optique héréditaire de Leber neuropathie, par exemple, la perte de vision se produit dans l'enfance à l'âge adulte en raison des mitochondries défectueuses. Les femmes peuvent passer l'état à leurs enfants, mais les hommes ne le feront pas, parce que le génome mitochondrial n'est effectué dans les œufs, pas le sperme.

Les bases de données publiques fournissent des informations sur l'ADN mitochondrial d'un assortiment d'organismes. Ces bases de données peuvent aider les chercheurs à identifier des gènes individuels, et leur permettre de comparer les gènes des organismes sains et malades pour rechercher les erreurs spécifiques qui conduisent à des maladies génétiques de l'ADN. Les chercheurs dans des domaines comme la thérapie génique peuvent utiliser cette information pour déterminer s'il est possible de réparer l'ADN pour restaurer la fonctionnalité, et peuvent l'utiliser pour le diagnostic de l'embryon et le dépistage pour vérifier les signes de troubles génétiques communs.

Qu'est-ce qu'un moteur de fusée?

Un moteur de fusée est un type de moteur à réaction, ce qui signifie qu'il s'agit d'un moteur à réaction qui crée poussée par décharge d'un courant à grande vitesse de gaz dans le sens opposé de la direction souhaitée de Voyage, se propulsant vers l'avant à cause de la conservation du moment. Une caractéristique distinctive de la fusée est que son jet propulsif est produit entièrement à partir de la masse propre de propulsion du moteur, avec rien de cela pris à partir de l'environnement extérieur. Cela diffère des autres formes de moteurs à réaction, tels que les turboréacteurs, turbosoufflantes, et statoréacteurs, qui mélangent leur carburant à l'air comprimé de l'atmosphère pour brûler leur carburant et produire un jet. la technologie de moteur de fusée est essentiel au vol spatial, car les roquettes peuvent fonctionner en dehors de l'atmosphère. Rockets sont également utilisés à des fins telles que des feux d'artifice, des armes, et à grande vitesse des avions.

Plusieurs formes de moteur de fusée existent. Le type le plus couramment utilisé est appelé une fusée chimique. Une fusée chimique est propulsé vers l'avant par des réactions chimiques dans son propulseur produisant de la chaleur, en produisant un flux d'échappement à grande vitesse qui est déchargé à partir de l'arrière de la fusée. Chaque fusée chimique exerce une substance propulseur inflammable que son approvisionnement en carburant. Ceci est combiné avec une substance encore plus inflammable, appelé l'initiateur ou allumeur. L'initiateur est enflammé, habituellement par une étincelle électrique ou une charge pyrotechnique, et la chaleur s'enflamme à son tour le propulseur, qui brûle pour produire un jet d'échappement de propulsion.

Les produits chimiques de propulseurs peuvent être des solides, des liquides ou des solides combinés avec des liquides ou des gaz. Dans une fusée à combustible solide, le combustible solide, appelée le grain, est mémorisée en même temps que l'oxydation des produits chimiques qui servent comme initiateur, tandis que les fusées à combustible liquide stockent l'agent propulseur liquide et de l'initiateur dans des réservoirs séparés jusqu'à ce qu'il soit temps de les libérer dans la chambre de combustion pour mélanger. Fusées à combustible hybrides utilisent un propergol solide, qui est ensuite mélangé avec un initiateur liquide ou gazeux stocké dans un réservoir séparé jusqu'à ce qu'il soit prêt à être utilisé.

Le combustible solide le plus couramment utilisé aujourd'hui est appelé perchlorate d'ammonium propergol composite (APCP), qui se réfère à un certain nombre de différents mélanges chimiques qui intègrent à la fois le propulseur et l'initiateur. PCAP comprend généralement le perchlorate d'oxydation de l'ammonium (NH 4 ClO 4), polymères élastomères élastiques appelés, et de l'aluminium en poudre ou d'autres métaux. Les propergols liquides sont souvent composés de l'oxygène liquide en mélange avec du kérosène raffiné ou de l'hydrogène liquide ou du tétroxyde de diazote (N 2 O 4) mélangé avec de l'hydrazine (N 2 H 4) ou un de ses dérivés.

Les fusées à carburant solide ont été la première forme de moteur de fusée, mais ont été largement supplanté par des conceptions liquide de carburant et hybrides plus efficaces. Ils sont encore couramment utilisés à des fins telles que des feux d'artifice et des fusées modèle, cependant, et sont parfois utilisés dans les vols spatiaux à lancer de petites charges utiles en orbite ou sous forme de suppléments à une fusée à carburant liquide pour augmenter la capacité de charge utile. Par exemple, la navette spatiale utilise une seule grande fusée à carburant liquide flanqué de deux fusées à carburant solide petits pour atteindre l'orbite.

Une fusée thermique utilise un agent propulseur qui est chauffé par une source externe de chaleur plutôt que par des réactions chimiques dans l'agent propulseur lui-même. Hot fusées à eau, également appelés fusées de vapeur, utilisent l'eau comme un propulseur en le chauffant à produire des jets de vapeur. Ceux-ci sont souvent utilisés en très véhicules terrestres à grande vitesse, tels que pilotes de dragsters. Fusées électrothermiques utilisent des champs électriques afin de produire le plasma chauffé, qui chauffe ensuite le propulseur pour produire un jet. Roquettes électrothermiques sont utiles pour produire de brefs éclats de poussée et couramment utilisé à des fins de contrôle de l'altitude des satellites.

Plusieurs autres types de fusées thermiques ont été proposés et peuvent éventuellement voir utilisation. Une fusée solaire thermique pourrait utiliser l'énergie solaire comme source de chaleur, soit par exposition de l'agent de propulsion directement au rayonnement du soleil ou à l'aide de l'énergie solaire pour alimenter un échangeur de chaleur qui serait chauffer le gaz propulseur. L'énergie solaire serait recueillie et concentrée par des miroirs ou des lentilles de fournir suffisamment de chaleur concentrée. Un moteur de fusée thermique pourrait également être alimenté par l'énergie qui lui est transmise depuis une source externe par l'intermédiaire de faisceaux laser ou micro-ondes. Une fusée thermique à propulsion nucléaire pourrait chauffer son propulseur avec l'énergie d'un réacteur nucléaire ou de la désintégration des isotopes radioactifs.

Quels sont les générations d'armes nucléaires?

Bien qu'il n'existe aucune définition officielle de différentes générations d'armes nucléaires, les historiens et les analystes de la maîtrise des armements reconnaître souvent quatre catégories générales, dont chacune représente une avance technologique considérable sur la dernière. Les pays en développement d'armes nucléaires ont tendance à développer chaque étape de son tour et rarement sauter des étapes, sauf à l'occasion de la première. Ces étapes sont:
 1) des bombes de type pistolet fission,
2) des bombes à fission de type implosion,
3) des bombes à fusion, et
4) MIRV (multiple indépendamment ciblage de véhicule de rentrée) livré des armes nucléaires. Notez comment il n'y a pas de principe d'organisation unifiée de ce régime; la distinction entre la première et la deuxième est basée sur la méthode de détonation, la deuxième et la troisième par le type de bombe, et la troisième et la quatrième par le système de délivrance utilisé.

Les armes nucléaires de la première génération ont été initialement développées aux États-Unis en 1939-1945 sous les auspices du top secret Manhattan Project. La construction de type pistolet de la bombe signifie son principe de fonctionnement est un morceau de enrichi l'uranium lancé à un autre comme un canon. Lorsque les deux unités d'uranium se combinent, ils atteignent une masse critique et déclenchent une réaction nucléaire en chaîne. Le résultat est une explosion nucléaire, comme ceux qui ont tué 140 000 personnes au cours du bombardement atomique d'Hiroshima pendant la Seconde Guerre mondiale.

Les armes nucléaires de type implosion améliorer l'efficacité des armes de type pistolet en l'entourant de l'uranium avec une sphère de lentilles explosives, visant à diriger leur énergie vers l'intérieur et compacter de l'uranium. Il en résulte que plus de l'uranium est consommé dans la réaction en chaîne au lieu d'être déchiquetés sans fission, ce qui entraîne un rendement plus élevé. armes nucléaires de type implosion ont été élaborés par les États-Unis un peu après les premières armes nucléaires de type pistolet. La bombe nucléaire qui a été lâchée sur Nagasaki trois jours seulement après le bombardement d'Hiroshima a été basé sur la conception de type implosion, qui lui a permis d'être plus compact et plus léger.

Malgré les améliorations progressives sur les armes de fission, tels que l'utilisation d'une réaction de fusion petite pour stimuler le rendement, la prochaine grande étape vers le haut dans la destruction des armes nucléaires est atteint par la bombe de fusion, ou bombe à hydrogène. Au lieu de fission (briser) d'uranium ou de plutonium noyaux, la bombe de fusion fusionne des éléments légers (hydrogène) et libère l'énergie en excès dans l'explosion. C'est le même processus qui alimente le Sun. La plupart des armes nucléaires modernes sont du type de fusion, que les rendements obtenus sont beaucoup plus élevés que les meilleures armes de fission.

Après de nombreuses bombes à fusion ont été construits, il ne restait pas plus de mesures qui pourraient être prises pour augmenter le rendement de ces armes, si l'attention s'est tournée vers le développement de méthodes de prestation qu'un ennemi potentiel serait incapable de contrer. Cela a conduit à la mise au point de livraison MIRV, où un missile balistique à tête nucléaire est lancé dans l'atmosphère, après quoi il libère 6-8 indépendamment ciblables véhicules de rentrée à pleuvoir sur des cibles adjacentes. Comme ces véhicules de rentrée à tête nucléaire voyagent à des vitesses extrêmes, environ Mach 23, blocage ou détournement eux est pratiquement impossible avec les technologies actuelles.

Qu'est-ce une addition standard?

Certaines techniques analytiques scientifiques sont conçues pour trouver la quantité de substances individuelles à l'intérieur d'un mélange. Parfois, ce système est simple, mais certains échantillons interfèrent avec la capacité de la technique pour évaluer la véritable concentration d'une substance dans un mélange. Addition d'étalon est un moyen de trouver la concentration réelle d'une matière dans un mélange en le comparant à un mélange identique à plus de la matière ajoutée. En comparant le résultat obtenu avec la quantité connue de la substance, l'analyste peut calculer combien de la substance est présente dans le premier échantillon.

Les produits chimiques ont tendance à interagir avec l'autre, de différentes manières, en fonction des caractéristiques des matériaux particuliers. En général, un produit chimique dans une solution simple, tel que le chlorure de sodium (NaCl) dans l'eau (H 2 0,) peut être reconnu par une technique d'analyse pour évaluer la quantité de la NaCl présent dans un échantillon de la solution. La concentration de NaCl ne soit pas masquée par la présence d'autres produits chimiques qui interfèrent avec la sensibilité de l'analyse.

Certains échantillons complexes, tels que l'eau stagnante, contiennent une variété de molécules différentes. La concentration réelle de la substance d'intérêt dans l'échantillon peut être masquée par la présence de ces autres produits chimiques. Par exemple, les caractéristiques de la substance cible peut être modifiée par l'interaction ou la liaison avec d'autres composants, ce qui entraîne des niveaux enregistrés de la substance qui sont trop faibles. Comme le point d'évaluer des concentrations des différents composants d'un échantillon est la précision, ce qui pose un problème pour les chimistes.

Une façon de résoudre le problème consiste à comparer la concentration de l'échantillon inconnu à un ensemble connu de résultats pour un échantillon similaire. Cela implique beaucoup d’essais primaires, cependant, et les échantillons peuvent varier largement en composition, de sorte qu'un ensemble de résultats de type connu peut être impraticable. Au lieu d'utiliser cette méthode compliquée et peut-être coûteuse, les chimistes peuvent choisir d'utiliser plus standard.

Cette méthode d'analyse consiste à diviser l'échantillon en deux ou plusieurs parties. On reste inchangée, mais le chimiste ajoute un produit chimique à l'autre partie (s). Le produit chimique à ajouter est exactement la même que la substance dans l'échantillon que le chimiste cherche à savoir la concentration de. Il ou elle ajoute une quantité connue de la substance chimique à la seconde portion de l'échantillon, et teste ceci et l'échantillon d'origine. Pour plus de précision, d'autres parties, avec des concentrations variables de produit chimique ajouté, peut également être testée.

Comme l'analyste sait combien chimique supplémentaire qu'il ou elle a mis dans les échantillons modifiés, l'échantillon original peut être comparé à des parties avec le plus standard. Cette comparaison des résultats peut dire à l'analyste la quantité de substance était dans l'échantillon initial. Généralement, les calculs mathématiques ou un graphique des résultats d'addition standard est utilisé pour déterminer la concentration initiale dans l'échantillon. Addition d'étalon est une technique d'analyse commune dans l'analyse de la chimie, où il est également connu en tant que "dopage de l'échantillon."

Quelle est la Nuclear Threat Initiative pour les?

La Nuclear Threat Initiative (NTI) est un organisme public de bienfaisance fondée en 2001 par Ted Turner, magnat des médias, et Sam Nunn, qui était un sénateur des États-Unis de la Géorgie depuis 24 ans. L'Initiative contre la menace nucléaire est basé à Washington, DC, avec Sam Nunn servant l'actuel PDG. L'organisation est remarquable pour fonctionner en toute transparence. Selon le site Web de l'organisation, les principaux objectifs de la NTI sont «à empêcher les terroristes d'obtenir une bombe nucléaire et de renforcer la santé et la sécurité mondiale." Les INT fonctionne avec un budget d'environ 50 millions de dollars américains par an.

Une des réalisations les plus importantes de la Nuclear Threat Initiative jusqu'ici produisait dernière chance sur un film de 45 minutes qui illustre le danger de terrorisme nucléaire. Dans le film, les terroristes volent des armes de qualité uranium des réacteurs de recherche mal gardés, façonner une bombe nucléaire, et avec succès la contrebande à travers la frontière américaine. Le film se termine avant que la bombe est fait exploser, laissant les effets de la bombe à l'imagination du spectateur. L'implication est que la détonation d'une bombe atomique dans une grande ville américaine se traduirait par des centaines de milliers de morts et le déplacement de millions.

Un autre des réalisations de la Nuclear Threat Initiative a été Vinca projet, un effort pour supprimer la valeur de l'uranium hautement enrichi stocké dans un réacteur de recherche civil à la sécurité insuffisante dans Vinca, Serbie de plus de deux bombes. L'uranium récupéré est soit downblended (non enrichi) ou déplacé aux installations de stockage plus sûres en Russie. La NTI soutient que il y a des dizaines de réacteurs de recherche civils mal gardés dans le monde entier, dont chacun peut avoir suffisamment d'uranium hautement enrichi pour construire plusieurs bombes atomiques.

Une troisième réalisation de la NTI a été renforcé (AIEA) des programmes de l'Agence internationale de l'énergie atomique pour sécuriser les matières nucléaires vulnérables en améliorant la sécurité des sites choisis. À la suite de la contribution de l'INT, la taille du programme de la sécurité physique de l'AIEA a été effectivement doublée. La subvention a également le coup d'envoi d'une avalanche de contributions supplémentaires des États-Unis et d'autres pays, la compensation de l'AIEA plus de 25 millions $ US en fonds supplémentaires.

Contributions les plus importantes de la NTI peuvent être dans les coulisses de Washington, convaincre les politiciens américains à prendre le risque de terrorisme nucléaire plus sérieux. Responsables du renseignement américain ont souligné la volonté explicite des groupes comme Al-Qaïda d'acquérir une arme nucléaire et l'utiliser pour attaquer les États-Unis. Une seule arme nucléaire avec une charge utile équivalente à une bombe d'Hiroshima serait capable de détruire le bâtiment du Capitole, la Maison Blanche, le National Mall, et de nombreux monuments d'importance nationale avec une seule explosion.

Qu'est-ce qu'une étoile de la coquille?

Une étoile de la coquille est pensée pour être entouré par un disque de gaz à l'équateur. Ces étoiles sont également connues en tant que variables Gamma Cassiopeiae parce que le premier exemple n'a été trouvé dans la constellation de Cassiopée. Une étoile de la coquille est appelée «variable» en raison des modifications irrégulières, ou des variations de luminosité, causées par le nuage de gaz entourant. Ce procédé n'est pas entièrement compris, mais peut être lié à la rotation rapide de l'ensemble des étoiles connues de ce type.

Les étoiles sont classées en fonction de leurs caractéristiques spectrales et attribuer une lettre, et les étoiles de la coquille sont divisées en quatre groupes en fonction de cette classification. Les lettres sont, dans l'ordre, O, B, A, F, G, K et M. étoiles à la fin de O du spectre, appelé étoiles bleues, sont les plus chaudes. Étoiles à l'autre extrémité du spectre se trouvent les plus cool étoiles et sont classés comme des étoiles rouges. Trois types d'étoiles de la coquille relèvent les parties O et B, ou bleu et bleu-blanc, du spectre, et le quatrième groupe appartient au groupe d'étoiles dans la gamme AF, ou blanc et le jaune-blanc. Une majorité des étoiles de coquille tombe dans la gamme de B.

La lettre «e» est souvent appliquée comme une classification secondaire à une étoile pour indiquer les émissions accrues, et dans la plupart des cas, une étoile de la coque sera désigné en tant que tel. L'augmentation des émissions sont de la partie de l'hydrogène du spectre d’émission, ce qui signifie que ces étoiles présentent de plus grandes quantités d'hydrogène, dans un état d'énergie supérieur, que les autres étoiles. Une étoile de la coquille peut également montrer une augmentation des spectres d'émission pour d'autres éléments tels que le fer, l'hélium, et de calcium, entre autres.

Les étoiles sont également classées selon leur taille, ce qui correspond également à la luminosité globale ou la luminosité. La plupart des étoiles de la coquille sont parmi les types les plus importants d'étoile. Les chiffres romains sont utilisés pour indiquer ce classement, avec des étoiles I étant les plus grands et les plus petits du V étoiles. Notre soleil est une étoile de taille de V. La majorité des étoiles de la coquille tomber dans la gamme III-IV, mais certains se trouvent dans la classe V.

La variabilité de la luminosité et des spectres d'émission pour les étoiles de la coquille, il est difficile de bien comprendre ou de les classer avec précision, car ils peuvent apparaître à tomber dans différentes catégories selon des critères reconnus, à des moments différents. La rotation extrêmement rapide est pensé pour avoir un rôle majeur dans cette variabilité, mais n'explique pas entièrement les variations de luminosité ou les émissions. En 2011, les astronomes essaient encore expliquer le mécanisme derrière le disque de gaz et de sa relation à débourser la variabilité de stars.

Qu'est-ce une spectroscopie électronique Auger?

Une spectroscopie électronique Auger AES) est souvent utilisé pour déterminer la composition chimique d'une mince couche microscopique d'une surface. Des particules appelées électrons sont typiquement destinés à la matière, ce qui déclenche l'effet Auger, dans lequel un électron de la couche interne d'un atome est enlevé, une particule de niveau supérieur prend sa place, et un autre électron est émis. Mené dans un ultra-vide, le test est généralement réalisé avec un canon à électrons, analyseur, détecteur, et l'enregistreur de données. L'information est généralement analysé graphiquement; la nature des pics permet généralement d'identifier ce que les composés sont présents dans l'échantillon.

Les faisceaux d'électrons sont souvent utilisés, bien que les rayons X soient parfois libérés à la place. Le type de matériau à l'essai détermine que l'on utilise; oxydes, par exemple, peuvent se dégrader s'ils sont exposés à des niveaux élevés d'électrons. Les substances peuvent être identifiées, car l'énergie d'un électron Auger est généralement propre à l'élément. En spectroscopie d'électrons Auger, les particules qui s'échappent ne sont généralement pas aussi énergique que d'autres. Ils ont généralement besoin d'être très proche de la surface pour pouvoir s'échapper, et tous les gaz présents pendant AES peuvent empêcher la particule d'atteindre le détecteur.

Un canon à électrons utilisé dans la spectroscopie des électrons Auger est généralement constitué d'une source de particules et une lentille qui focalise le faisceau. La lentille peut être électrostatique ou électromagnétique; dont l'un est utilisé dépend de la résolution requise. Un analyseur d'énergie d'électrons qui fait partie d'une technique de spectroscopie d'électrons Auger peut trier les particules émises par leurs niveaux d'énergie. L'analyseur peut soit être réalisé sous la forme d'un miroir cylindrique ou deux coquilles hémisphériques concentriques.

Les détecteurs à canaux multiples ou à l'unité-sont souvent utilisés pour la spectroscopie d'électrons Auger. Les données sont ensuite analysées par des ensembles de pics sur un graphique. Scans ne prennent généralement que quelques minutes à compléter, tandis que les mesures à haute résolution peuvent prendre jusqu'à 25 minutes. Une analyse de l'enquête identifie généralement les éléments sont présents, tandis qu'une autre analyse peut dire comment concentrées certains atomes sont. Si le faisceau est balayé à travers l'échantillon, puis une carte de la surface de mesure peut être produite.

La spectroscopie Auger sciences est souvent utilisée dans de nombreuses applications de la physique et de la chimie. En plus d'identifier des éléments sur des surfaces, il peut être utilisé pour détecter l'oxydation et à la corrosion aussi bien. La réponse de la température et de la fatigue liée peuvent être analysée en utilisant AES. La technique peut également être utilisée pour inspecter des circuits intégrés pour les contaminants, mais une limitation du procédé est qu'il existe souvent des dommages à la surface du matériau testé.

Qu'est-ce que Déconvolution?

La déconvolution est le processus de suppression de la dégradation du signal à partir de données enregistrées. Signaux ont deux principales façons d'être endommagé: soit le signal est créé ou enregistré de manière incorrecte ou le signal est perturbée qui se déplace d'un point à. Toute forme de dommages de signal est appelé une convolution et déconvolution est le processus de la prise de ces circonvolutions sans endommager les données d'origine. Ces procédés sont utilisés massivement dans le traitement du signal, de l'audio et le traitement vidéo et la sismologie, mais le processus sous-jacent est utilisé dans presque toutes les sciences ordinaires.

Toute perturbation de signal est une convolution. Ce n'est pas grave si la perturbation est causée par un autre signal, un reflet de l'original ou même un dispositif d'enregistrement défectueux. Petites circonvolutions habituellement ne perturbent pas le signal assez de soucis; ceux-ci sont souvent simplement tenus à partir du signal déplaçant dans l'espace. D'autre part, les grandes circonvolutions feront un signal illisible et ont besoin d'être enlevé.

La grande majorité de déconvolution est de déterminer ce qui est arrivé à circonvolutions du signal original. Une fois que la convolution exacte est déterminée, il est possible de modifier l'original pour modifier le. La plupart du temps, cela signifie tout simplement le signal est modifié de nouveau par un autre convolution qui est exactement à l'opposé de la perturbateur d'origine. Ces deux signaux s'annulent et renvoyer les informations enregistrées dans sa forme originale.

Ce processus a un grand nombre d'applications du monde réel. La déconvolution est largement utilisé comme un procédé de correction d'images optiques de grossissement pour tenir compte de la distorsion. Quand une lentille magnifie une image, l'image n'est pas agrandie uniformément sur l'ensemble du domaine. Même dans les microscopes haut de gamme et des télescopes, il y a une très petite quantité de distorsion. Quand une image est fortement agrandie, soit en consultant un très petit ou un objet très éloigné, la distorsion peut affecter radicalement l'image. En appliquant une convolution adverse à l'image, une version beaucoup plus vraie est créée.

Cette même technique est utilisée dans plusieurs autres domaines audio et visuels pour améliorer la force du signal et de créer plusieurs enregistrements réels. En sismologie, un signal est déformé par la distance, moyen et réflexions de lui-même. Toutes ces circonvolutions montant à un signal à peu près inutile. En utilisant déconvolution pour revenir en arrière dans tous les distorsions, les scientifiques peuvent en apprendre davantage sur ce qui se passe au point de l'origine du signal et quelles sortes de choses existent entre la transmission du signal et la réception.

Comment est fait de neige artificielle?

Un certain nombre de villes à vocation touristique dans les zones tempérées ou chaudes contiennent grands bâtiments isolés remplis de neige artificielle pour les personnes à skier sur. Ces pistes de neige artificielle peuvent être trouvées en Allemagne, au Japon, et même dans certains pays du Moyen-Orient, comme Dubaï, dans les Émirats arabes unis. Ces structures produisent réaliste neige regarder et se sentir pour le snowboard et le ski toute l'année. La neige artificielle est également produite dans l'industrie du divertissement pour utilisation comme un accessoire ou toile de fond.

Comment est-il possible de produire de la neige artificielle? Plusieurs éléments sont nécessaires. En premier lieu, la paroi de la structure contenant la neige doit être isolé extrêmement bien. Murs à double paroi isolés sont couramment utilisés. Dans certains des pentes de neige artificielle, l'isolation est si bon qu'il faudrait des semaines pour fondre la neige, même si tous les systèmes de refroidissement ont été désactivés.

La neige est créé sur le toit de l'immeuble où l'utilisation "des canons à neige" air comprimé pour tirer minuscules granules de glace (10 microns de diamètre) dans un nuage d'eau liquide atomisé. Systèmes de réfrigération géants réduire la température globale de l'intérieur à -8 ° C (17,6 ° F). Parfois, d'autres matériaux de semences en dehors des granules de glace sont utilisées, tels que des ions magnésium, calcium, ou des particules d'argile ou des substances organiques. Les petites impuretés vont travailler, dans une certaine mesure. Le matériau de semences qui rend la neige artificielle la plus réaliste à la recherche est une poudre de protéine lyophilisée dérivée de la bactérie Pseudomonas syringae appelé Snomax ®, mais les granules de glace sont le plus fréquemment utilisés.

Comme les particules de semence passent par la vapeur d'eau et vers le bas vers le sol, ils accumulent des cristaux de neige et se transforment en neige artificielle. L'idée est que toutes les particules de gel avant qu'ils ne touchent le sol. Sous le plancher, les systèmes utilisant glycol et de l'ammoniac liquide refroidir l'étage en outre, la création d'un rembourrage de neige artificielle idéal qui simule de près les conditions naturelles.