ALI

Affichage des articles dont le libellé est technologie. Afficher tous les articles
Affichage des articles dont le libellé est technologie. Afficher tous les articles

jeudi 17 avril 2014

Qu'est-ce que la Force magnétomotrice?

 Lorsque les physiciens discutent de la force d'un champ magnétique, ils se réfèrent à lui comme force magnétomotrice (MMF) ou potentiel magnétique. Force magnétomotrice est l'œuvre qui porte une unité mesurable de force à travers un circuit magnétique. Cette unité de la force est mesurée en ampères-tours (AT).

Magnétisme dans un circuit coule du nord au pôle sud. Suite à un chemin spécifique, la force du magnétisme est similaire à la force dans un circuit électrique. Alors que l'électricité suit un certain chemin à partir d'un point d'origine à un point de réception et de retour, le magnétisme coule toujours d'un pôle à l'autre. Comme magnétisme flux à travers le circuit, il produit des lignes de force, ou les lignes de flux, et génère un champ magnétique.

En termes plus simples, tout ce qui produit le magnétisme peut être décrit comme exerçant une force magnétomotrice. Comprendre la signification de base du mot lui-même, il est facile de comprendre son application. Force magnétomotrice traduit, littéralement, de «mouvement magnétique provoquant." La motion qui force magnétomotrice génère est toujours exercée perpendiculairement à la résistance du circuit magnétique.

Bien que le magnétisme exerce une force qui lui est propre, il ne présente une réticence à voyager à travers de grandes portées de l'air. Cette réluctance est semblable à la résistance d'un circuit électrique. Le magnétisme se déplace beaucoup plus de succès à travers le fer. Un circuit magnétique composé exclusivement de fer aura beaucoup plus faible réluctance d'un circuit magnétique traverse une fente d'air.


Soit des aimants permanents ou de fil d'conductrices d'électricité peuvent produire une force magnétomotrice. Quand une bobine de fil produit une force magnétomotrice, le nombre de spires du fil est directement lié à la valeur de la force générée. Par exemple, la force magnétomotrice de la bobine de 50 tours aurait 25 fois plus grande que la force magnétomotrice de la bobine avec seulement deux tours. Le flux magnétique d'un circuit magnétique est alors égal à la force magnétomotrice divisé par la réticence du circuit. Cette relation peut être mieux comprise si l'on prend le temps d'examiner que le flux magnétique représente le voyage du magnétisme une substance à travers un circuit magnétique. Chaque tour dans une bobine concentre la force du champ magnétique. Surmonter la réticence du circuit de voyager à travers chacune des bobines, la force naturelle de l'aimant est démontré que la force.

Quels sont les différents types de tapis de plaque tournante?

Les tapis de plaque tournante sont des tampons ronds qui sont assis sur un plateau de la platine; ils peuvent atténuer ou autrement influencer son, ainsi que d'élever le record du plateau pour permettre vibration libre. Différents matériaux influencent les réponses de vibration des sons avec leurs propres caractéristiques. D'une épaisseur de un à plusieurs millimètres, ces tapis se distinguent par des traits tels que l'adhérence, propriétés antistatiques, résonance, et même apparence.

Les tapis de feutre ont une faible masse et une efficacité limitée, mais sont très peu coûteux et facile à faire. Les tapis à plaque tournante  en acrylique amortissent bien résonance; ce qui peut réduire le bruit, mais si elles sont prises trop loin, peut donner un son plus terne. Les matériaux composites les plus coûteuses, telles que le graphite de carbone, sont conçus pour absorber l'énergie de façon caractéristique avec de faibles impédances mécaniques.

Les tapis peuvent être fabriqués à partir de matériaux faciles à obtenir, comme le caoutchouc ou en cuir, ou deux matériaux liés ensemble. Par exemple, un mat de cuivre recouverte d'une couche de feutre peut fournir des qualités favorables de types de tapis plus coûteux. Trouver un tapis que l'équilibre parfait entre la vibration et le ton est très souvent une expérience subjective. De nombreux autres matériaux sont également disponibles, tels que les types de caoutchouc et variétés brevetées et multicouches.

Les feutrines : il existe une variété de tapis de platine utilisés par des disc-jockeys (DJ). Celles-ci permettent un enregistrement à tourner à un rythme compatible en gardant une bonne adhérence sur le disque. Lorsque le DJ détient le record de suspendre temporairement la lecture, le plateau continue de tourner. Gratter, comme il est communément appelé, est une manipulation rythmique de cet effet populaire avec de la musique hip-hop, et permet à un DJ pour effectuer aussi avec la musique. Ces types de tapis saisir le plateau et permettent des manipulations de doigts lisses.

Les audiophiles avertis et amateurs de disques choisissent leurs nattes pour équilibrer avec des composants tels que le stylet, bras de lecture, et d'autres mécanismes qui peuvent influer sur le son final. Ces tapis sont parfois utilisés avec des anneaux ou rondelles fabriqués à partir d'autres matériaux liège pour stabiliser le disque et l'aider à jouer avec réponse de résonance et la fréquence optimale. Les masses différentes possédées par différents tapis de plaque tournante influencent les réponses des pointes, ou des aiguilles. Comme un stylet oscille dans une rainure, une partie de ses vibrations sont introduits de nouveau dans le vinyle ; ce qui peut dégrader la clarté d'un signal, avec des reliques sonores qui peuvent être amortis ou amplifiés par un tapis.

Trouver le bon équilibre pour un son optimal est souvent un compromis entre la technologie, le coût, et le goût personnel. Les joueurs présentent différents niveaux de bruit du moteur et la performance. Un appareil mobile présente des imperfections dans reproductions audio. Comment bien effectuer tapis platine est le résultat de leur conductivité, impédances mécaniques, et prises en charge; ceux-ci sont directement influencés par les matériaux et épaisseurs, ainsi que les rigidités et les formes. L'expérimentation et l'expérience chiffre dans la sélection informés du type approprié pour un système audio.


  

Qu'est-ce qu'un baromètre de l'eau?

Un baromètre de l'eau est un dispositif qui utilise l'eau pour mesurer la pression barométrique. Le dispositif utilise la force de gravité, combinée avec la pression de l'air, pour créer un vide, qui à son tour donne une lecture qui indique les changements de pression barométrique qui se déroulent dans une zone spécifique. Les baromètres de l'eau, qui ont été utilisés depuis des milliers d'années, peuvent être utilisés pour prédire les changements de conditions météorologiques. Faible pression atmosphérique indique précipitation, ou de pluie, alors que la pression atmosphérique élevée indique un temps sec.

Parfois considéré comme un "verre de temps," un baromètre de l'eau se compose généralement d'un récipient en verre qui est à moitié rempli d'eau. Le verre a un bec verseur qui se trouve au-dessous de la ligne de flottaison et est ouvert à l'environnement. La pression de l'atmosphère pousse l'eau vers le bas comme il essaie de se lever du bec; quand une zone de haute pression atmosphérique se produit, le niveau d'eau baisse. A l'inverse, quand une zone de basse pression se déplace dans le niveau de l'eau monte dans le verre.

En lisant le niveau de l'eau, une prévision des événements météorologiques à court terme peut être fait, et une jauge peut aussi être apposée sur le baromètre de permettre des lectures à prendre. Les baromètres de l'eau ont été utilisés par les plaisanciers amateurs et marins commerciaux aussi bien pour prévoir le temps. Bien qu'elle n'ait pas la mesure la plus précise possible, le baromètre de l'eau disponible début météorologues de précieuses informations en ce qui concerne la prévision phénomène météorologique.

Les baromètres d'eau présentent plusieurs inconvénients qui ont ajouté à leur baisse de la consommation. D'abord parce que les baromètres d'eau utilisent l'eau comme un moyen de mesure, l'eau doit être surveillé et remplacé sur une base régulière. C'est parce que l'eau s'évapore du fait d'être exposé ouvertement à l'atmosphère. Deuxièmement, un baromètre de l'eau ne peut éventuellement offrir des résultats précis que les demandes modernes de prévision. Un baromètre de l'eau est uniquement destiné à donner une idée générale d'un modèle de temps qui approchait.

Alors que les baromètres de l'eau ne sont pas obsolètes, des méthodes plus modernes, des matériaux et des technologies ont, dans l'ensemble, a remplacé le modèle de verre de temps. Parmi les autres outils de la météo, les baromètres à mercure et baromètres anéroïdes fournissent des résultats plus précis et spécifiques. Le logiciel de simulation informatique aide en outre les prévisionnistes à prédire la météo à venir.

Beaucoup d'écoles utilisent encore le baromètre de l'eau comme une expérience scientifique dans les salles de classe à travers le monde. Un baromètre à eau simple peut être fait par scellement d'un tube de verre d'un côté et ensuite de le remplir avec de l'eau. L'extrémité scellée du tube est ensuite immergé dans un verre d'eau et descellée. Le tube devra être serré en place afin qu'il ne bouge pas. Une fois que non étanche, un vide se forme à l'intérieur du tube et le niveau d'eau va changer en même temps que la pression barométrique de l'atmosphère.


Qu'est-ce qu'un démarreur à distance pour les voitures?

Un démarreur à distance est un dispositif de commande à distance qui permet à l'utilisateur de démarrer un véhicule sans l'utilisation d'une clé. Certains systèmes de démarrage de la télécommande permettent également un conducteur la capacité de transformer les lumières intérieures et extérieures sur et en dehors et à verrouiller et déverrouiller les portes avec la télécommande. La taille du contrôle de la plupart des systèmes de démarreur à distance ne sont généralement pas très grands et sont généralement de taille similaire à une entrée sans clé moyenne fob.

Un démarreur à distance fonctionne comme une télécommande pour la télévision. Pour démarrer un véhicule avec un démarreur à distance l'utilisateur appuie simplement sur un bouton sur un petit porte-télécommande à main. Le gousset de télécommande envoie un signal à un composant qui est attaché au système d'allumage d'un véhicule, lequel à son tour, commence la voiture.

La principale raison pour laquelle de nombreux propriétaires de véhicules choisissent d'installer un système de démarrage à distance est la capacité de réchauffer l'intérieur d'une voiture dans des conditions de froid et de refroidissement à l'intérieur d'un véhicule dans des conditions météorologiques chaudes, sans avoir à être physiquement dans le véhicule. Comme toute personne qui a conclu une voiture extrêmement chaude ou froide peut en témoigner, il peut être mal à l'aise d'entrer et de conduire un véhicule avec un intérieur chaud ou froid. Par conséquent, pré-chauffage ou de pré-refroidir l'intérieur d'un véhicule peut faire l'expérience de conduite un moment beaucoup plus agréable.

Une autre raison que les propriétaires peuvent choisir d'installer des systèmes de démarrage à distance dans leurs voitures est à l'augmentation du niveau de la sécurité que de tels systèmes peuvent être en mesure d'offrir. Les démarreurs à distance sont conçus pour démarrer un véhicule sans clé dans le contact. Sans une clé dans le contact, les vitesses d'une voiture ne peuvent pas être engagés et il peut être difficile d'utiliser efficacement le volant, ce qui rend difficile de voler la voiture.

Sans un système de démarreur à distance, un pilote désireux de se réchauffer ou refroidir une voiture aurait à laisser la clé dans le contact alors que la voiture est en marche. Ceci ferait un véhicule fonctionnant vulnérable au vol. En fait, de réduire les cas de vol de véhicule, il est illégal dans de nombreuses municipalités de laisser un véhicule de marche, inoccupé.

Pour ceux qui s'intéressent à l'achat d'un système de démarrage à distance, il est recommandé que les consommateurs prennent le temps de bien étudier la grande variété de systèmes qui sont disponibles pour trouver celui qui est bon pour eux. Un facteur important que les consommateurs doivent prendre en considération est la portée effective de la télécommande système de contrôle. La plupart des utilisateurs désirent la possibilité de démarrer à distance leurs véhicules de l'intérieur de leurs maisons ou lieux de travail; donc un système de plus longue portée est généralement plus souhaitable que celui avec une portée plus courte.

Systèmes de démarrage à distance peuvent être achetés dans les magasins de stéréo de voiture et d'alarme. Beaucoup de grands détaillants qui se spécialisent dans les équipements de technologie électronique peuvent également offrir des systèmes de démarrage à distance. Alors que certains démarreurs de voiture peuvent être installés comme un projet do-it-yourself, l'installation professionnelle d'un système de démarrage à distance est généralement recommandée.


vendredi 14 février 2014

Pourquoi des heures de lumière et d'obscurité prolongée pour l'Alaska?

Bien que les changements saisonniers des heures de clarté soient expérimentés dans la plupart de la terre, les régions polaires subissent des changements plus extrêmes en raison de leur emplacement par rapport au soleil pendant l'hiver et l'été. L'axe ou le basculement du compte de terre pour l'Alaska et des périodes extraordinaires de l'Antarctique d'heures de lumière et d'obscurité prolongée.

Pour voir pourquoi: imaginez une balle de tennis avec une longue aiguille passant par son centre de haut en bas. L'aiguille s'étend sur deux "pôles" la création d'un axe. Une ligne noire qui court de la circonférence de la balle indique "l'équateur." De la balle Maintenant, imaginez une piste à peu près circulaire pour la boule à suivre, et incliner l'axe 23,5 degrés vers la voie de sortie, de sorte que la balle est légèrement inclinée. Enfin, placer une source de lumière dans le centre de cette piste imaginaire.

Comme la balle se déplace autour de la piste, son axe reste fixe, mais en vertu de celui-ci se déplaçant autour de la piste, son inclinaison, par rapport à la lumière de centre (le soleil) changements. À un point le long de la piste, le pôle nord se plus grande exposition à la lumière, étant inclinée vers l'intérieur, vers la lumière. À l'autre extrémité de la trajectoire orbitale, la même région du nord est pointée loin de la source de lumière avec le pôle exposé sud "vers l'intérieur."

Cette inclinaison de la terre est ce qui crée nos saisons, et est également responsable de longues journées d'été de l'Alaska. Lorsque le pôle Nord est incliné vers l'intérieur vers le soleil, la région reçoit une exposition prolongée au soleil. Du point de vue de quelqu'un qui se tient au nord vrai sur l'été solstice, le soleil soulève haut dans le ciel, puis le tour de l'horizon sans jamais mettre. Exposition allongé au soleil au cours de la saison estivale permet à la région de conserver plus de chaleur. Les ombres sont plus courtes parce que le soleil est à son zénith supérieur.

Au pôle Sud, en Antarctique, le contraire se produit. Ici, la région est incliné loin du soleil, de sorte que le solstice d'hiver, le soleil longe les horizons jamais tout à fait à la hausse. Dans les régions périphériques plus de "vrai sud" où le soleil ne pose bas dans le ciel pour de courtes périodes de temps, l'angle du soleil est très oblique. Cela crée des ombres plus longues, le filtrage atmosphérique supplémentaire, et le rayonnement plus faible ou la chaleur. Ainsi, lorsque l'Alaska connaît journées d'été sans fin remplis de lumière, de la chaleur et de la chaleur, désolé Antarctique est ancré dans les jours de l'obscurité totale et près de faible lumière du soleil. Inversement, lorsque l'Antarctique voit été, l'Alaska est d'avoir hiver. En raison de son emplacement unique, à la fois l'hiver et les saisons d'été sont fascinants à découvrir en Alaska.

Au printemps et en automne des saisons de l'axe de la terre est aligné le long de sa trajectoire orbitale, plutôt que de se rapprocher ou s'éloigner du soleil. Par conséquent, le soleil brille le plus directement sur les régions équatoriales, ou centre de la terre. Sur les solstices qui marquent ces saisons, 21ème Mars et le 21 Septembre, nous avons des journées de 12 heures et des nuits de 12 heures. Pour chaque jour qui passe après un printemps ou à l'automne équinoxe, les jours commencent allonger dans un hémisphère et le shortening dans l'autre.

Certaines personnes attribuent à tort saisons à l'orbite légèrement elliptique de la terre, croyant la plus proche de la terre est au soleil, le plus chaud de la saison. En réalité, l'orbite de la Terre est presque circulaire, et la petite déviation de la distance n'est pas suffisante pour causer des saisons.


Quelle est la galaxie du Triangle?

Le Triangle Galaxy est une galaxie de taille moyenne située à environ 3 millions d'années-lumière dans la constellation du Triangle, triangle. Il est l'objet le plus lointain visible à l'œil nu, et peut être aperçu que dans le ciel très sombre. On parle aussi de Messier 33 ou NGC 59, Triangle est parfois appelé à tort que la galaxie de soleil, mais un autre, plus grande galaxie porte déjà ce nom. Triangle est parfois confondu avec NGC 752, une proximité amas ouvert avec plus de luminosité, de notre point de vue.

Les bras de Triangle ne s'étendent que sur un demi-tour autour de la galaxie au plus, leur donnant des armes un "facteur de torsion" similaires à ceux de la Voie Lactée. Triangle est un membre du groupe local de galaxies gravitationnellement liés, dont la plus importante est la Voie Lactée et la galaxie d’Andromède. La galaxie naine du Poissons à proximité peut être une galaxie satellite de Triangle, Triangle et lui-même peut être un compagnon gravitationnellement lié d'Andromède. Sur quelques dizaines de galaxies du Groupe Local, Triangle, la Voie Lactée, et la galaxie d'Andromède sont les trois seules galaxies spirales. Triangle est plus proche de Andromeda que de la Voie Lactée, est séparée de cette dernière par seulement un million d'années-lumière.

Bien que la galaxie du Triangle est visible à l'œil nu dans des conditions idéales, aucun observateur pré-télescopique note son existence. C'est peut-être parce que les galaxies ont tendance à être plus floue et indistincte que les étoiles et les planètes, pour ne pas mentionner beaucoup moins lumineux.

La galaxie du Triangle est connue pour avoir l'une des plus fantastiques les régions H II sur une galaxie connue, d'un diamètre de 1 500 années-lumière. Une région H II est un grand nuage de gaz ionisé qui sert de nurserie stellaire. Les étoiles sont créés dans les parties denses de régions H II appelés globules de Bok, après l'astronome que le premier théorisé ils étaient les lieux de naissance des étoiles.


Qu'est-ce que la Voie Lactée?

La Voie Lactée est un amas d'étoiles liées ensemble par la gravité dans la forme d'une spirale. Ce type de disposition des étoiles est connu comme une galaxie. Beaucoup de gens sont familiers avec le concept de la Voie Lactée, car il héberge notre propre système solaire sur un de ses bras spiraux. Dans des conditions particulièrement claires, la Voie lactée est visible comme une bande faible de lumière dans le ciel. Les stars dans cette bande d'étirement lumière à travers des centaines de milliers d'années-lumière pour former collectivement notre galaxie, qui n'est qu'un parmi des milliards dans l'univers.
La Voie lactée est une galaxie spirale.


Le nom a été directement soulevé du latin via lactea, qui signifie «Voie lactée». C'est probablement une référence à l'apparence de la galaxie dans le ciel de la nuit, car il n'a pas l'air un peu comme une grande flaque de lait renversé. Le fait que la Voie lactée était un système interconnecté d'étoiles a été posée dès les années 1750, lorsque les observateurs ont réalisé que la tache blanche dans le ciel était en fait composée de millions d'étoiles.

Les astronomes qui ont étudié les origines de la Voie Lactée ont déterminé qu'il est presque aussi vieux que l'univers. La galaxie a six bras en spirale qui se dégagent d'un centre clair, marqués par une barre d'étoiles. La combinaison des spirales et un bar a conduit à la classification de la Voie Lactée comme une prescription galaxie spirale. On estime que la Voie lactée contient entre 200 et 400 milliards d'étoiles.

Lorsqu'on regarde de son côté, la Voie lactée a un gros renflement central entouré d'un disque d'étoiles et de la poussière. En vue de dessus, l'agencement des spirales autour d'une barre centrale est clairement visible. Notre système solaire se trouve sur le bras d'Orion, l'un des bras plus courts dans la Voie Lactée. La galaxie entière est entourée d'un halo de petits amas d'étoiles et la poussière, ce qui rendrait la Voie lactée semble sombre pour les observateurs extérieurs.

La galaxie entière tourne lentement autour du bar central. Compte tenu de la taille de la galaxie, cette rotation est si progressive que les observateurs occasionnels ne le remarque pas. Il prend le soleil entre 200 et 230 millions d'années pour compléter une orbite de la galaxie. La galaxie la plus proche suivante est la galaxie d'Andromède , une autre galaxie en spirale qui est parfois appelé "la galaxie sœur." de la Voie Lactée Les deux galaxies se trouvent dans le superamas de la Vierge , un grand groupe de galaxies qui comprend le «groupe local», un assortiment de galaxies qui comprend la Voie Lactée.


Quelle est la galaxie d'Andromède?

The Andromeda Galaxy est la Voie Lactée sœur galaxy s ". Il est situé à 2 millions d'années-lumière de la Terre. La galaxie d'Andromède a plus d'étoiles que la Voie Lactée, un total d'environ 1 billion de dollars, par rapport à notre 2-400000000000. Cependant, les mesures récentes suggèrent que la Voie Lactée pourrait en fait être plus massive, avec une plus grande matière noire halo. Estimations de masse pour la galaxie d'Andromède sont dans le voisinage de 7,1 × 10 11 masses solaires.

Il a longtemps pensé que la galaxie d'Andromède et la Voie Lactée vont inévitablement se heurter à une longue période de temps. Ce n'est plus considéré être le cas, bien que la collision pourrait se produire. Si c'est le cas, il se produira dans cinq milliards d'années. Pour le système solaire, situé dans les bras galactiques, ce ne serait pas un événement très extrême - densité étoiles dans le voisinage local serait environ le double. Collisions stellaires resteraient rare, bien que la collision des supermassifs trous noirs situés dans les noyaux galactiques pourrait libérer une énorme quantité d'énergie.

La galaxie d'Andromède et la Voie Lactée sont les plus grandes galaxies du Groupe Local, qui contient environ 30 galaxies au total, la plupart d'entre eux galaxies naines. Ces deux galaxies ont une structure spirale barrée, et le centre de masse pour le groupe local se trouve entre eux, ce qui explique pourquoi les deux galaxies accélèrent vers l'autre.

Avant 1925, lorsque Edwin Hubble a prouvé que l'objet était une autre galaxie d'Andromède en utilisant des variables Céphéides, Andromeda a été appelé le Grand Andromeda nébuleuses. La galaxie d'Andromède est l'un des objets les plus éloignés qui peuvent être vus à l'œil nu - la galaxie du Triangle est la plus éloignée, à 3 millions d'années-lumière - et a été l'étoile du depuis l'an 905, quand il a été observé et noté par l'astronome persan Abd Al-Rahman Al Sufi. A l'origine, il a été appelé «le Petit Nuage". La galaxie d'Andromède est nommée d'après la constellation dans laquelle il se trouve, Andromeda.


Qu'est-ce que hydrostatique d'équilibre?

Un volume de fluide, qui peut être un gaz ou un liquide, est dit être en équilibre hydrostatique lorsque la force vers le bas exercée par la gravité est compensée par une force ascendante exercée par la pression du fluide. Par exemple, l'atmosphère de la Terre est tiré vers le bas par gravité, mais en direction de la surface de l'air est comprimé par le poids de la totalité de l'air au-dessus, de sorte que la densité augmente de l'air à partir de la partie supérieure de l'atmosphère à la surface de la Terre. Cela signifie que la différence de densité que la pression de l'air diminue avec l'altitude de sorte que la pression vers le haut par en dessous est supérieure à la pression vers le bas à partir de ci-dessus et cette force ascendante nette équilibre la force de gravité vers le bas, en maintenant l'atmosphère à une hauteur plus ou moins constante. Quand un volume de fluide n'est pas en équilibre hydrostatique, il doit se contracter si la force de gravité est supérieure à la pression ou à l'agrandissement si la pression interne est supérieure.

Ce concept peut être exprimé sous la forme de l'équation d'équilibre hydrostatique. Il est généralement indiqué en tant que dp / dz =-gρ et s'applique à une couche de fluide à l'intérieur d'un plus grand volume en équilibre hydrostatique, où dp est la variation de pression à l'intérieur de la couche, dz est l'épaisseur de la couche, g est l'accélération due à la gravité et ρ est la densité du fluide. L'équation peut être utilisée pour calculer, par exemple, la pression à l'intérieur d'une atmosphère planétaire à une hauteur donnée au-dessus de la surface.

Un volume de gaz dans l'espace, comme un grand nuage d'hydrogène, sera d'abord contracter en raison de la gravité, de la pression de plus en plus vers le centre. La contraction se poursuivra jusqu'à ce qu'il y soit une force extérieure égale à la force gravitationnelle vers l'intérieur. C'est normalement le moment où la pression au centre est si grande que les noyaux d'hydrogène fusionnent pour produire de l'hélium dans un processus appelé la fusion nucléaire qui libère d'énormes quantités d'énergie, ce qui donne naissance à une étoile. La chaleur qui en résulte augmente la pression du gaz, en produisant une force vers l'extérieur pour équilibrer la force de gravité vers l'intérieur, de sorte que l'étoile sera en équilibre hydrostatique. En cas d'augmentation de la gravité, peut-être plus de gaz au travers de tomber dans l'étoile, la densité et la température du gaz vont également augmenter, en fournissant une pression plus vers l'extérieur et de maintenir l'équilibre.

Les étoiles sont toujours en équilibre hydrostatique sur de longues périodes, généralement plusieurs milliards d'années, mais ils finiront par manquer d'hydrogène et de commencer à fondre progressivement éléments plus lourds. Ces changements mettent temporairement l'étoile hors d'équilibre, provoquant une dilatation ou la contraction jusqu'à ce qu'un nouvel équilibre soit atteint. Fer ne peut pas être fusionné en éléments plus lourds, comme cela nécessiterait plus d'énergie que le processus serait de produire, quand tout le combustible nucléaire de la star a finalement transformé en fer, aucune fusion ne peut avoir lieu et les effondrements étoiles. Cela pourrait laisser un noyau de fer solide, une étoile à neutrons ou un trou noir, en fonction de la masse de l'étoile. Dans le cas d'un trou noir, aucun processus physique connu ne peut générer une pression interne suffisante pour stopper l'effondrement gravitationnel, l'équilibre hydrostatique donc ne peut être atteint et l'on pense que l'étoile se contracte à un point de densité infinie connu comme une singularité.


Qu'est-ce qu'un univers d'or?

L'univers de l'or est une théorie en cosmologie concernant l'origine et l'état futur de l'univers physique qui a été autrement dénommé la théorie de l'état stationnaire, ainsi que la théorie univers infini. La théorie propose l'idée que la matière est générée ou créé comme une conséquence directe de l'expansion de l'espace en permanence. Proposé par les chercheurs en astrophysique Fred Hoyle, Herman Bondi, et Thomas d'or en 1948, la théorie est parfois appelée la théorie de Bondi-or aussi bien et est une alternative directe à la théorie du Big Bang, qui est venu à être la dominante modèle parmi les astrophysiciens pour la nature de l'univers à partir de 2011.

Selon le modèle de l'univers de l'or, la réalité physique est dans un état perpétuel de l'expansion, mais la densité moyenne de matière dans l'espace ne change pas. Ceci est accompli par l'introduction d'une nouvelle matière dans l'espace de l'or, qui fusionne en galaxies et des étoiles à un rythme identique à celui de la matière préexistante qui devient inobservable car il devient de plus en plus loin. L'univers de l'état d'équilibre ne suit pas la même flèche thermodynamique du temps que le Big Bang propose. Cette idée stipule que l'univers est comme une horloge qui tourne lentement au fil du temps comme la matière et de l'énergie de plus en plus dispersées, entraînant finalement soit entropie totale et la mort de la chaleur, ou un effet inverse connu sous le nom Big Crunch. Au lieu de cela, les perspectives d'équilibre est l'un d'un univers d'or sans commencement ni fin dans le temps et, par conséquent, pas de mort ultime ou la renaissance de l'univers soit.

Bien que les perspectives de l'univers de l'or n'est pas populaire parmi les chercheurs à partir de 2011, ses hypothèses théoriques de base sont solides et en forme dans les découvertes sur la nature d'un univers en expansion faite par Edwin Hubble et la nature dynamique de l'espace révélé dans la relativité générale la théorie d'Albert Einstein. Le principe de la cosmologie physique pour la création d'une nouvelle matière dans l'univers de l'or est extrêmement faible. Pour valider la théorie, il est seulement nécessaire que d'environ un atome d'hydrogène est créé dans chaque mètre cube de l'espace une fois tous les milliards d'années. Comme aucune preuve de ce qui a été observé, cependant, y compris la création d'éléments plus lourds comme le lithium et d'hélium, la théorie de l'état stationnaire est considérée comme ayant été discrédité.

Le débat scientifique détaillée entre les partisans des deux le Big Bang et les théories de l'état stable ont souligné des failles dans les deux, mais on pense que de 2011 qui a fini par les paramètres de la théorie du Big Bang seront affinées au point que ses affirmations deviennent indéniable. Les autorités religieuses sont également devenus impliqués dans le débat dès le début, avec le Pape Pie XII de l'Eglise catholique annonce en 1952 que la théorie du Big Bang était en accord avec le dogme chrétien. Cela était dû au fait que vue de l'état d'équilibre d'un univers sans début ni fin dans le temps a été considéré à certains égards comme nier l'existence de la puissance créatrice de Dieu et, par conséquent, être athée. Sociétés athées ou communistes à l'époque, cependant, comme celui de l'Union soviétique, avaient astronomes voient les deux côtés du débat comme trop idéaliste dans leurs points de vue et fondamentalement viciée.


Qu'est-ce qu'une étoile intergalactique?

Une star intergalactique est celui qui ne fait pas partie et n'est pas dans une galaxie. Ce sont aussi connus comme des parias stellaires, et, un nom officieux supplémentaire est étoiles de tramp. Étoiles intergalactiques probablement formées dans une galaxie, mais un événement quelconque auraient jeté les étoiles sur les laissant sur leur propre. Le concept d'une star intergalactique était hypothétique jusqu'en 1997, lorsque le télescope Hubble a observé plusieurs dans une région de l'univers connu sous le nom amas de la Vierge, un groupe de galaxies qui, de la terre, l'air comme ils sont dans la constellation de la Vierge.

Parias stellaires sont apparemment pas si rare. Le nombre estimé d'étoiles intergalactiques dans l'amas seul peut-être plus d'un billion de dollars. Malgré la grande quantité de ces étoiles, les astronomes pensent que la vue du ciel nocturne d'une planète en orbite autour d'une étoile intergalactique ne serait pas très excitant. L'étoile n'est pas dans une galaxie, si bien qu'il pourrait y avoir quelques galaxies lointaines qui seraient visibles, les habitants n'auraient pas les, ciel étoilé bondés humains peuvent voir depuis la Terre. L'effet serait encore pire si la planète n'a pas de lune.

Comment les étoiles devinrent intergalactique n'est pas exactement connu, mais il peut y avoir deux façons possibles. La première est que les étoiles étaient une partie de la collision de galaxies que éjectés les étoiles dans le processus de rapprochement. Un autre processus hypothétique est un système de Multistar venir trop près d'un trou noir, l'une des étoiles dans le système de traverser l'horizon des événements et de tomber dans le trou noir, et les autres étant repoussé en quelque sorte, la suite se combinant pour former une étoile intergalactique.

Les étoiles que le télescope Hubble observe étaient des géantes rouges. Le premier indice que les étoiles intergalactiques pourraient réellement exister est venu quand les astronomes ont trouvé les nébuleuses planétaires en dehors des galaxies dans l'amas de la Vierge. A nébuleuse planétaire formes dans le cadre du processus qui se produit quand une étoile est près de la fin de sa durée de vie, et si les nébuleuses planétaires sont des galaxies en dehors, cela impliquait qu'il y avait eu étoiles en dehors de ces galaxies auparavant. Les astronomes ont ensuite comparé plans de la une image de l'espace lointain des galaxies champ profond de Hubble (HDF), à une image prise d'une section relativement sombre de l'amas de la Vierge. Si étoiles intergalactiques y existaient, les astronomes pensaient qu'ils allaient trouver les points supplémentaires, mais faibles de lumière, et ils l'ont fait, ce qui confirme l'existence d'étoiles intergalactiques.


Quel est le principe anthropique?

Le principe anthropique est le simple fait que nous vivons dans un univers mis en place pour permettre à notre existence. Si l'univers était une autre façon, nous n'existerions pas, et serait donc pas en mesure de faire des observations. Depuis qu'il a été introduit par le physicien Brandon Carter en 1973, le principe anthropique a progressivement en vogue parmi la physique et des communautés philosophiques, en fournissant une explication simple pour certaines coïncidences ailleurs très perplexe. Par exemple, pourquoi certaines constantes physiques si bizarrement affinés? Alors que certaines personnes considèrent cela comme la preuve d'un créateur surnaturel, matérialistes observent simplement que s'il s'agissait d'une autre façon, nous ne serions pas ici.

En raison de la mondes Beaucoup interprétation de la mécanique quantique, de nombreux physiciens sont venus à considérer notre univers comme une parmi d'autres - ". Multivers" peut-être un nombre infini, ou sur-ensemble des univers parfois appelés Bien que nous ne savons rien sur le processus sous-jacent qui pourrait générer ces univers, on peut supposer qu'il est aléatoire, ce qui conduit à des univers avec une variété de différentes tailles, les âges, les densités, les dimensions, et les lois fondamentales de la physique.

Compte tenu d'une multitude d'univers générés aléatoirement, il semble que beaucoup seraient hostiles à l'existence des arrangements délicats, auto-entretenu de la matière connus comme la vie. Même un petit sous-ensemble comprendrait des observateurs intelligents. Si la conscience est seulement présentée par un sous-ensemble d'esprits intelligents, alors il peut même exister des univers peuplés par des intelligences inconscients, ou les entités hypothétiques connus dans la philosophie de l'esprit comme «zombies». Ces lignes fascinantes de la pensée suivent tous de la reconnaissance des conséquences de grande portée du principe anthropique.

Le raisonnement anthropique a été employé dans des domaines allant de la théorie des supercordes - l'effort de créer une théorie unificatrice de la gravité quantique - pour prédire l'avenir de la race humaine; à deviner le sort de l'univers. L'utilisation du principe anthropique a été critiquée pour sa capacité presque surnaturelle à contribuer aux processus inductifs dans une variété de domaines. Aussi, parce qu'il est si nouveau et inhabituel, les critiques affirment ce pricincple a été débordés dans certains domaines. Par exemple, dans le principe cosmologique anthropique, John Barrow et Frank Tipler introduisent une "Final principe anthropique», qui stipule qu'une fois que la vie intelligente vient à l'existence de l'univers, il ne sera jamais s'éteindre. Ces extensions gung-ho du Principe ont rallié le scepticisme chez certains penseurs. D'autres estiment qu'il est tout simplement trop vaste pour faire, vérifiables, des prévisions spécifiques utiles.


Quels sont les avantages et les inconvénients de l'énergie solaire?

L'énergie solaire est l'énergie qui vient du soleil sous forme de lumière et de chaleur. C'est une forme de propre, l'énergie renouvelable qui est utilisée par les gens à travers le monde. En raison des limitations de l'argent et de la technologie, seul un petit pourcentage de la quantité totale d'énergie solaire disponible est effectivement exploité et utilisé. Bien qu'il soit propre et renouvelable, l'énergie solaire est loin d'être une forme d'énergie parfaite et n'est pas susceptible de remplacer d'autres formes d'énergie. Il y a de nombreux avantages de l'énergie solaire et les inconvénients que les consommateurs et les entreprises considèrent avant de décider ou non de faire usage de l'énergie du soleil.

Il y a de nombreux avantages et les inconvénients de l'énergie solaire que les gens doivent prendre en considération avant de prendre la décision coûteuse pour passer à l'énergie solaire. En utilisant une telle énergie a ses avantages. Les panneaux solaires ne dégagent pas de pollution de toute nature, et peu de pollution en produits sur leur production. Les panneaux solaires produisent de l'énergie en silence et, en ce sens, au moins, sont très non intrusive. Tant qu'ils ne sont pas endommagés, les panneaux solaires peuvent fournir de l'énergie libre de la maison ou de l'entreprise depuis des années.

Tandis que les années de l'énergie libre et la diminution de la dépendance à fossiles combustibles peuvent sembler beaucoup, aucun examen des avantages et des inconvénients de l'énergie solaire n'est pas complet sans un regard sur le prix, qui est considéré comme le plus grand obstacle à la conversion à l'utilisation de l'énergie solaire. Panneaux et cellules solaires sont très coûteux, et plusieurs peuvent être nécessaires pour alimenter une maison, entreprise, ou d'un véhicule. Bien que l'entretien n'est pas particulièrement cher et l'énergie acquise après l'installation est gratuite, le coût initial de l'achat et l'installation de panneaux solaires peut être très élevé. En dépit de ce coût élevé, cependant, assez panneaux solaires mis en place dans une zone avec beaucoup de soleil devraient, dans le temps, payer pour eux-mêmes grâce à l'énergie libre qu'ils fournissent.

Les autres avantages et les inconvénients de l'énergie solaire impliquent l'environnement que les panneaux solaires sont installés po Il est souvent très pratique de mettre en place des panneaux solaires dans les zones reculées, telles que l'espace, où le pouvoir est nécessaire, mais où les réseaux électriques locaux ne sont pas une option. Les panneaux solaires sont, cependant, selon les conditions météorologiques. Une région qui connaît régulièrement épaisse couverture nuageuse gagnera probablement peu d'intérêt à partir de panneaux solaires, qui fonctionnent le mieux lorsqu'il est directement exposé à la lumière du soleil. Une autre considération est la quantité de temps de chaque jour que l'énergie solaire est accessible; panneaux solaires besoin de lumière pour travailler, de sorte qu'ils fonctionnent que pendant les heures de clarté.


Quelle est l'histoire de l'énergie solaire?

Les humains ont essayé de trouver des moyens pour capter la lumière et de la chaleur des rayons du soleil pendant des milliers d'années. L'histoire de l'énergie solaire est assez longue, à partir de la 600 BC et continue à travers les temps actuels. Il ne fait aucun doute que l'histoire de l'énergie solaire ne se terminera pas de sitôt. Comme seule une faible partie de l'énergie du soleil est utilisé, même maintenant, de nouvelles découvertes et de nouvelles façons d'exploiter l'énergie du soleil va pousser la chronologie de l'énergie solaire dans l'avenir.

Dès le début, les humains ont découvert des moyens pour diriger les rayons du soleil et viser eux à une source destinée. Cette histoire des débuts de l'énergie solaire a été observée lorsque les humains utilisent  la  loupe dans les 600 BC à brûler les fourmis. Plus tard, dans les 200s avant JC, les Grecs et les Romains utilisaient des miroirs pour réfracter les rayons du soleil pour éclairer leurs torches pour leurs temples religieux.

En 100 avant JC, l'énergie solaire a été répandu pour avoir été utilisé lorsque les Grecs reflète boucliers en bronze sur les navires romains, les obligeant à prendre feu. Bien que cet exploit ne puisse être un mythe, il a été recréé par plusieurs scientifiques, y compris ingénieur grec, Anthemius de Tralles. Dès l'an 600, il aurait utilisé «verres brûlants» et a donné le mythe certain validité. Il a enregistré ses conclusions dans son traité intitulé Paradoxes mécanique. Tout au long des 1300 prochaines années, il y a des rapports répétés de l'énergie solaire est utilisée pour chauffer les maisons, les maisons de bain, et des bâtiments publics.

L'histoire de l'énergie solaire continue à travers les années 1700 et 1800. Pendant cette période de temps, les gens se sont intéressés à l'amélioration de la technologie utilisée pour capter l'énergie du soleil. Par exemple, en 1767, un scientifique de la Suisse, Horace de Saussure, a inventé un capteur solaire qui a été plus tard utilisé pour chauffer la nourriture pour les aventuriers des expéditions. En 1816, Robert Stirling a inventé un moteur qui allait plus tard être utilisé pour convertir l'énergie du soleil en énergie électrique. Le reste des années 1800 ont été remplis avec des scientifiques des moyens d'exploiter plus d'énergie du soleil et la création de sources solides d'électricité provenant de l'énergie.

Dans les années 1900, les effets photoélectriques et photovoltaïques ont été au centre du monde scientifique. L'histoire de l'énergie solaire a commencé à être dominante. En effet, en 1940 l'un des livres les plus populaires a été imprimée, intitulée Votre maison solaire. Il a dirigé les gens vers les architectes solaires hauts et leur dit comment ils pourraient avoir une maison solaire. Tout au long des années 1950, 1960 et 1970, les cellules photovoltaïques sont devenues plus efficaces. En 1977, les États-Unis a créé une nouvelle facilité de gouvernement consacré à capter l'énergie du soleil et la convertir en électricité, le National Renewable Energy Laboratory.

Les années 1980 ont été une période importante dans l'histoire de l'énergie solaire. En 1981, des scientifiques ont créé le premier avion à énergie solaire. Puis, en 1982, la première voiture solaire a été tirée à travers l'Australie en un temps record. En outre, la production photovoltaïque a continué d'augmenter de façon exponentielle au cours des années 1980.

Les années 1990 ont été reprises de la découverte scientifique accrue. Plats solaires et de cellules solaires plus efficaces ont été inventés. Un regard sur l'histoire de l'énergie solaire montre également que le toit de l'énergie solaire est devenu plus populaire au cours des années 1990. En 2001, les systèmes de toits peuvent être achetés dans les quincailleries locales, pour rendre l'énergie solaire encore plus fréquente. En 2000, les stations de gaz, chemins de fer, et d'autres entreprises ont commencé à utiliser l'énergie solaire dans leurs bâtiments et leurs activités quotidiennes. Comme la technologie devient plus sophistiquée, l'énergie solaire va continuer à transformer la façon dont les gens conception, la construction, le travail, et de vivre leur vie quotidienne.


Quelle est la relation entre la physique des particules et de cosmologie?

Il existe une relation intime entre les domaines de la physique des particules et la cosmologie, qui été illustrée par une longue lignée de physiciens travaillant dans les deux simultanément: Albert Einstein, Stephen Hawking, Kip Thorne, et bien d'autres. La cosmologie est l'étude de l'univers et de sa structure, tandis que la physique des particules est l'étude des particules élémentaires comme les quarks et les photons, les plus petits objets connus. Bien qu'au premier abord elles peuvent paraître comme sans rapport que n'importe quoi peut être, la cosmologie et la physique des particules sont en fait étroitement liées.

Contrairement aux systèmes complexes de la Terre, qui bien être décrites à l'aide des explications de haut niveau plutôt que des propriétés émergentes des niveaux les plus bas, les phénomènes intergalactiques et cosmologiques sont relativement simples. Par exemple, dans les vastes distances de l'espace, un seul des quatre forces de la nature a une réelle influence: la gravité. Bien que les étoiles et les galaxies sont très loin et beaucoup de fois plus grand que nous-mêmes, nous avons une image d'une précision remarquable de la façon dont ils travaillent, dérivé de lois physiques fondamentales qui orientent leurs particules constitutives.

Le domaine de la cosmologie plus étroitement lié à la physique des particules est l'étude du Big Bang, l'explosion gigantesque qui a créé toute la matière dans l'univers et l'espace-temps dont l'univers lui-même est composé. Le Big Bang a commencé comme un point de densité quasi-infinie et le volume à zéro: une singularité. Puis, il a rapidement élargi à la taille d'un noyau atomique, qui est l'endroit où la physique des particules entre en scène. Pour comprendre comment les premiers instants du Big Bang ont influencé l'univers tel qu'il est aujourd'hui, nous devons utiliser ce que nous savons à propos de la physique des particules pour créer des modèles cosmologiques plausibles.

Une des motivations pour la création d'accélérateurs de particules les plus puissants est de mener des expériences qui simulent les conditions physiques le plus tôt possible dans l'histoire de l'univers, où tout était très compact et chaud. Les cosmologistes doivent être bien versé dans la physique des particules, afin d'apporter une contribution significative dans le domaine.

Une autre clé pour comprendre la relation entre la physique des particules et de la cosmologie est de regarder l'étude des trous noirs . Les propriétés physiques des trous noirs sont pertinentes pour l'avenir à long terme du cosmos. Les trous noirs sont effondrés étoiles avec une telle immense gravité que même la lumière ne peut échapper à leur emprise. Pendant un certain temps, on a pensé que les trous noirs émis aucun rayonnement, et aurait été éternelle, un paradoxe pour les physiciens. Mais Stephen Hawking a théorisé, fondées sur les de la physique des particules, que les trous noirs n'émettent en effet rayonnement, qui a ensuite été surnommé le rayonnement de Hawking.

La physique des particules est également très pertinente dans les enquêtes de la matière noire, matière invisible dont l'existence est connue en raison de son influence gravitationnelle sur la matière visible, et l'énergie sombre, une force mystérieuse qui imprègne l'univers et provoque son expansion s'accélérer. Ce sont des questions centrales de la cosmologie moderne.


Qu'est-ce que la loi de Hubble?

La loi de Hubble est une description d'une observation faite par Edwin Hubble en 1929. Hubble a noté que les objets de l'univers semblent se déplacer les uns des autres, et que plus un galaxie était d'un observateur, plus vite il serait déplacer. Cette observation est utilisée comme base de Hubble constant, une estimation du taux d'expansion de la galaxie qui est un concept important dans la cosmologie, utilisé pour soutenir un certain nombre de discussions sur la nature de l'univers. Hubble Constant est effectivement mieux appelé "variable de Hubble», car il dépend du temps.

Les observations faites par Hubble ont été basées sur l'utilisation de la spectroscopie de regarder le décalage vers le rouge des galaxies qu'il observait. Décalage spectral, le résultat de l’effet Doppler, ce qui provoque une onde de changer la fréquence d'émission de l'objet lorsque l'onde se déplace par rapport à l'observateur, est un changement dans le spectre de lumière émise par une galaxie vers l'extrémité rouge du spectre. Rougissement se produit lorsque les galaxies s'éloignent rapport à l'observateur. Galaxies se déplacent vers un observateur subissent ce qu'on appelle un décalage vers le bleu, la lumière se déplaçant vers l'extrémité bleue du spectre.

Les observations de Hubble ont amené à comprendre que les galaxies s'éloignent les unes des autres, et que, par ailleurs, le plus loin une galaxie a été, plus vite il se déplaçait. Tel est le fondement de la loi de Hubble, et un pilier de la théorie de l'univers en expansion. Il est important d'être conscient du fait que ce phénomène peut être observé à partir de n'importe où dans l'univers. L'univers, comme il s'avère, a beaucoup en commun avec un muffin aux graines de pavot: que l'univers / muffin se développe, les galaxies / poppyseeds l'intérieur se déplacent les uns des autres.

La loi de Hubble est parfois exprimée à cette équation: V = H 0 D. L'équation reflète la relation entre la vitesse, déterminée à l'aide de la spectroscopie; Hubble constant, reflétant le taux d'expansion se produisant à travers l'univers, et de la distance. Plusieurs valeurs différentes pour la constante de Hubble ont été arrivées à des cosmologistes. Les valeurs les plus précises sont soupçonnées d'avoir été déterminées avec l'aide du célèbre télescope Hubble nom. La constante de Hubble est considérée comme de 2009 à environ 74 kilomètres par seconde pour chaque mégaparsec dans la distance.


La vitesse et la distance ne peuvent pas être mesurées directement. Cela signifie que les données sont arrivées à avec l'aide de la loi de Hubble pourrait être erronée. En fait, il y a eu des arguments vifs depuis 1929 sur la loi de Hubble et ses implications sur la nature de l'univers.

Qu'est-ce que le paradoxe de Olbers?

D'Olbers Paradox, également connu sous le ciel nocturne paradoxe, est le nom donné au problème d'expliquer pourquoi le ciel est sombre la nuit. Le casse-tête a été posé à un moment où il a été supposé que l'univers était statique, extension infinie et infiniment ancienne. Sur la base de ces hypothèses, il semble que le ciel doit être clair, car il y aurait un nombre infini d'étoiles qui couvrirait tous les points dans le ciel. Le paradoxe est nommé d'après Heinrich Olbers, qui, en 1826, a déclaré que chaque ligne de mire se terminerait à une étoile, ce qui rend le ciel lumineux. Le problème, cependant, était venu plusieurs fois auparavant dans l'histoire de l’astronomie, qui remonte au 16ème siècle.

La première référence connue au paradoxe vient de l'astronome Thomas Digges en 1576, qui a rencontré le problème dans sa description d'un univers infini avec une distribution aléatoire des étoiles. En 1610, Johannes Kepler a cité ce qui allait devenir connu comme le paradoxe d'Olbers à montrer que l'univers doit être fini. Il semble y avoir un problème avec un univers fini, cependant, qui était qu'il allait s'effondrer sur elle-même due à l'attraction gravitationnelle des étoiles et des planètes en son sein. La plupart des astronomes supposaient donc que l'univers était infini et ainsi le paradoxe est resté.

Suggestions initiales que la plupart des étoiles étaient trop loin pour être vu ont été rapidement rejetées. Si l'univers est infiniment vieux, lumière des étoiles aurait une quantité infinie de temps pour nous rejoindre, de sorte que même les étoiles les plus distantes contribueraient à un ciel lumineux. On peut montrer mathématiquement que pour un univers infini d'étoiles uniformément réparties, le ciel tout entier doit être aussi brillant qu'une étoile moyenne. L'éclat des étoiles diminue avec la distance, mais le nombre d'étoiles augmente avec la distance, sans limite dans un univers infini. Les effets s'annulent, laissant un ciel lumineux.

Diverses autres tentatives ont été faites pour résoudre le casse-tête au cours des cent prochaines années. Une première tentative d'explication est que la plupart des étoiles a été obscurci par la poussière. S'il est vrai que les nuages ​​de poussière dans nos galaxie bloc de vastes zones de celui-ci de vue, s'il y avait un nombre infini d'étoiles, par la suite toute la poussière se réchauffent et l'éclat, tout comme les étoiles.

Une autre suggestion était que les étoiles ne sont pas distribuées au hasard, mais ont été organisées dans des groupes avec de grands vides entre les deux. Nous savons maintenant que ce n'est, en fait le cas: étoiles sont regroupées en galaxies, qui sont regroupés en amas et superamas. Sur la plus grande échelle, cependant, l'univers est homogène et le paradoxe d'Olbers, comme décrit par Olbers lui-même, indique que chaque ligne de mire doit se terminer à une étoile. Formulé de cette manière, il est clair que d'un groupement non aléatoire des étoiles ne peut expliquer le ciel sombre si les étoiles sont passé à être alignés l'un derrière l'autre, le blocage de l'autre c'est la lumière - un scénario ne pouvait prendre au sérieux.

Il n'était pas jusqu'à la découverte par Edwin Hubble, en 1929, que l'univers est en expansion qu'une résolution au paradoxe d'Olbers se présentait. On sait maintenant que l'univers observable est en expansion à un rythme qui augmente avec la distance et, en regardant en arrière dans le temps, nous arrivons à un point de petit volume et densité énorme. Cela donne deux raisons pour lesquelles le ciel est sombre. Le premier, et le plus important, la raison est que l'univers a un âge fini, donc il n'aurait pas eu le temps de la lumière des étoiles au-delà d'une certaine distance de nous rejoindre. Une deuxième raison est que l'expansion de l'univers en résulte un décalage Doppler de la lumière des étoiles qui augmente avec la distance, au-delà d'une certaine distance, toute la lumière serait déplacée au-delà du spectre visible, le rendu des étoiles invisibles.


Quels sont des problèmes non résolus dans la cosmologie?

La cosmologie , l'étude de l'univers, est en proie à de nombreux problèmes non résolus. Historiquement, ces problèmes non résolus ont amené de nouveaux développements de la physique qui allaient révolutionner le domaine, mais dans le dernier demi-siècle, les cosmologistes ont été de découvrir de nouveaux problèmes et de fournir moins de solutions correspondantes. Trouver des solutions à ces problèmes peut exiger une nouvelle pensée radicale, et plus de tolérance à embaucher des docteurs enclins à poursuivre leurs propres idées plutôt que de simplement suivre ceux de scientifiques de haut niveau.

Un des problèmes les plus en vue de la cosmologie est la constante cosmologique, qui régit l'expansion de l'univers, aussi connu comme l'énergie sombre. Une partie importante, environ 60%, de la masse-énergie dans l'univers est dans une forme d'énergie mystérieuse qui pousse le cosmos part à un rythme accéléré. Quelle est cette énergie, et où vient-elle? Les cosmologistes n’ont aucune idée réelle.

Bien que donné un nom similaire, il y a un autre problème dans la cosmologie, la soi-disant la matière noire, qui est en fait rien à voir avec l'énergie sombre, sauf dans la mesure où ils impliquent des choses que nous ne comprenons pas. Environ 90% de la masse de l'univers est dans une forme apparemment invisible de la matière que nous appelons la matière noire. Cette matière noire ne peut être mesurée par l'attraction gravitationnelle qu'elle a sur les objets autour de lui, et toutes les galaxies que nous observons contiennent de grands halos de celui-ci, s'étendant souvent pour des centaines de milliers d'années-lumière au-delà du bord de la matière lumineuse. Est-ce la matière soit réelle sombre, comme faiblement particules massives interagissant (de WIMPs), ou peut-être c'est juste un artefact d'observation provoquée par une mauvaise théorie de la gravité? Toute cosmologiste qui figure sur ce serait pratiquement garanti un prix Nobel, mais aucun n'a réussi.

Un autre mystère est pourquoi il y a tellement plus de matière que d'antimatière dans l'univers. Selon les théories physiques, ces formes de la matière sont essentiellement équivalentes, mais la matière classique est observée dans de plus grandes abondances que l'antimatière. Y a-t-il une très grande quantité de ces deux types de l'univers au début, et ils ont surtout anéanti avec l'autre pour laisser la question d'aujourd'hui? Ou était-il beaucoup plus de matière classique depuis le début? Si vous êtes un cosmologiste, c'est le genre de chose qui vous empêche de dormir la nuit.

Certaines des réponses aux questions ci-dessus peuvent être dérivées du principe anthropique - l'idée que sont les valeurs observées étaient très différentes, l'univers serait hostile à la vie et donc il n'y aurait pas cosmologistes à poser ces questions. Mais d'autres voient le principe anthropique comme une échappatoire, car il offre une explication commode pour pratiquement tout ce que nous voulons. Il existe de nombreux autres problèmes non résolus dans la cosmologie, ayant à voir avec la production de masse des neutrinos, la question de l'entropie dans le passé lointain, et les conditions de l'univers immédiatement après le Big Bang. Si vous voulez en savoir plus, allez lire un livre sur le sujet par un cosmologiste respecté.


Qu'est-ce qu'un pont thermique?

Un pont thermique se produit lorsque l'enveloppe d'isolation d'un bâtiment est traversée par un élément réalisé en un matériau thermiquement conducteur ou non-isolant. La chaleur sera transférée à une vitesse supérieure à travers ce pont de la chaleur dans les zones environnantes. Cela compromet les performances attendues du matériau isolant et des marques pour les températures de surface inégale. Un pont thermique est parfois désigné comme un pont froid.

Il existe un certain nombre d'emplacements à l'intérieur d'un bâtiment où un pont thermique est susceptible de se produire. Les coins et les jonctions de portes et fenêtres, les endroits où les murs et le toit se rencontrent, et les interfaces entre les murs sont particulièrement sensibles à cette question. Éléments structurels qui sont assemblés lors de la construction pourraient produire un pont thermique en raison des composants utilisés dans de rejoindre les éléments. Les dispositifs de ventilation et les balcons peuvent également pénétrer les couches d'isolation.

Les effets d'un pont thermique sont, en général, inversement proportionnelle à la qualité de l'isolation et la performance énergétique d'un bâtiment. La quantité relative d'échange thermique due aux ponts est relativement faible dans les bâtiments où la protection thermique n'était pas un facteur important dans la conception ou a été mal mis en œuvre. Dans les bâtiments modernes, où l'accent est mis sur l'utilisation efficace de l'énergie, les ponts thermiques peuvent être le principal facteur indésirable transfert de chaleur.

L’échange de chaleur résultant d'un des comptes de pont thermique pour plus de préoccupations que juste l'efficacité du contrôle du climat intérieur. Températures de surface internes plus faibles pourraient être une conséquence. Cela peut conduire à des problèmes de condensation dans les coins et au plancher et les murs, en particulier dans les climats humides. L'accumulation d'humidité peut directement conduire à la croissance de moisissures et peut passer inaperçue si produise sur les surfaces non exposées.

Les pratiques de conception et de construction ont été développées pour minimiser le transfert de chaleur par les ponts thermiques. On prend soin que les attaches murales et les menuisiers mécaniques des éléments de structure ne pénètrent pas dans une paroi de la cavité ou de l'enveloppe d'isolation. Extension de la dalle de plancher au-delà de l'enveloppe, les lentilles exposés, et l'utilisation d'éléments en béton ou en acier qui sont combinés dans les murs extérieurs peut être évitée. Le jonction de deux plans, tels que les murs et les coins, peut être rendu plus fiable thermiquement par choix de matériaux et d'assemblage méthodes.

L'utilisation de l'infrarouge d'imagerie pour détecter les températures de surface irrégulières indicatif d'un pont thermique est devenue courante. L'analyse par ordinateur en trois dimensions du flux de chaleur dans les éléments de construction du bâtiment est devenue un outil puissant aussi. Ce logiciel se développe sur le sur les modèles unidimensionnels qui ont souvent été utilisées pour estimer les propriétés thermiques des bâtiments.


Qu'est-ce qu'un galvanomètre Tangent?

Le courant électrique est souvent mesurée à l'aide d'un instrument appelé tangente galvanomètre. Capable de mesurer la présence ainsi que la direction et la puissance des courants, l'instrument a été utilisé au début des années 1800. Il a typiquement une bobine verticale du fil de cuivre, enroulé autour d'un cadre circulaire, et un compas dans le milieu. L'aiguille d'une boussole répond généralement au champ magnétique du courant électrique, qui est comparée au champ magnétique de la Terre dans l'expérience. Cet instrument scientifique a été construit dans de nombreuses formes et les plus modernes utilisent souvent des faisceaux de lumière afin de déterminer les mesures, tandis que certaines versions sont utilisées pour mesurer le champ magnétique de la Terre

Les œuvres d'instruments fondés sur le droit de la tangente du magnétisme. Ce principe définit la tangente de l'angle, parcouru par l'aiguille d'une boussole, comme étant proportionnelle à un rapport de la force de deux champs magnétiques sont. Ces champs sont généralement perpendiculaires l'un à l'autre. Les courants mesurés sont généralement proportionnelle à la tangente de l'angle de la même aiguille traverse.

Un galvanomètre à tangente est habituellement placé sur une surface plane et le compas est utilisé pour aligner la bobine du nord au sud. L'aiguille de la boussole est ensuite généralement aligné avec la direction de la bobine de sorte, lorsque le courant est appliqué, l'angle de l'aiguille tourne en peut être mesurée. Sur une boussole des tangentes, l'aiguille d'une boussole peut tourner dans n'importe quelle direction horizontale. Une échelle sur le dispositif comporte quatre quadrants, équivalant chacune un quart de cercle, tandis qu'un pointeur fixé à l'aiguille à angle droit peut fournir un moyen de lire l'échelle et prendre des mesures.

La plupart des galvanomètres tangents avoir un seul cycle, mais certains types ont deux anneaux placés côte à côte. La distance entre les anneaux peut varier en fonction de l'instrument. Pour un champ magnétique optimale, toutefois, la distance entre elle doit être le même que le rayon de la bobine.

Un problème de conception de la boussole des tangentes a souvent été la nécessité d'avoir une aiguille courte que ne pas atténuer le champ magnétique de la Terre. De petits changements actuels sont souvent difficiles à lire si l'aiguille est trop courte, de sorte que certains types modernes de tangent galvanomètre peuvent en utiliser un creux attaché à un miroir. Lorsque la lumière est orientée vers le miroir, il peut passer à travers l'aiguille et briller sur l'échelle de faire de petits changements de position évidente lors d'une expérience tangente galvanomètre.