text
stringlengths
35
3.53k
Contenido 1 Fisiología 1.1 Genética 2 Uso clínico 3 Mecanismo de acción 4 Clasificación de los antiarrítmicos 4.1 Tabla de clasificación 4.2 Agentes clase I 4.2.1 Agentes clase Ia 4.2.2 Agentes clase Ib 4.2.3 Agentes clase Ic 4.3 Agentes clase II 4.4 Agentes clase III 4.5 Agentes clase IV 4.6 Agentes clase V 5 Referencias Fisiología Los impulsos eléctricos del sistema de conducción cardiaca y que producen como consecuencia la contracción del músculo cardiaco, se originan a intervalos regulares en el nodo sinusal, por lo general a una frecuencia en el adulto de 60-100 impulsos por minuto.
Estos impulsos viajan con rapidez por las auriculas hasta llegar al nódulo auriculoventricular, que es normalmente la única vía de conducción entre las auriculas y los ventrículos.La conducción por el nódulo AV es más lenta, tomando unos 0,15 segundos antes de arribar a los ventrículos. Este retrazo le provee tiempo a la contracción auricular de llenar los ventrículos. El impulso viaja luego sobre las fibras del sistema His-Purkinje hasta las paredes de los ventrículos. La activación de los ventrículos se completa en menos de 0,1 segundos, de modo que la contracción de los ventrículos es sincronizada y hemodinámicamente efectiva.
Muchos factores precipitan o empeoran las arrítmias, tales como la isquemia, la hipoxia, acidosis o alcalosis, trastornos de los electrolitos, exposición excesiva a catecolaminas, influencias del sistema nervioso autónomo, toxicidad por drogas como los digitalicos o la presencia de cicatrices o tejido muerto en el corazón por infartos.[5] Cualquiera de estos u otros trastornos pueden causar fallos en la formación del impulso cardíaco, en su conducción o ambos. Genética En algunas arrítmias, como el síndrome de QT largo o la taquicardia conocida como torsade de pointes asociada a síncopes y muerte súbita, se ha descubierto una posible correlación genética.
Algunos de los defectos heredados ocurren a nivel de mutaciones en las proteínas que conforman los canales celulares.Algunos genes como el HERG o el KCNE2 codifican subunidades protéicas de la corriente de potasio rectificadora rápida mientras que las subunidades lentas son codificadas por los genes KCNQ1 y KCNE1, todas potenciales puntos de mutación y aberración funcional de canales de potasio y causantes, por ejemplo, de una variante familiar de fibrilación auricular. [6] Similarmente, el gen SCN5A para uno de los canales de sodio y responsable por el síndrome de QT largo subtipo 3. [ 7] Uso clínico Potencial de acción cardíaco, lugar donde tienen su efecto la mayoría de los agentes antiarrítmicos.
Las arrítmias cardíacas son trastornos comunes en la práctica médica, ocurriendo en un 25% de los pacientes tratados con digitálicos, 50% de pacientes anestesiados y más de 80% de pacientes con infarto de miocardio.Las arrítmias reciben tratamiento por razón de que un ritmo muy rápido o muy lento o bien asincronizado, pueden causar una reducción peligrosa del gasto cardíaco. Algunos de estos trastornos de la conducción eléctrica del corazón pueden precipitar a situaciones que ponen en peligro de manera veloz la vida del individuo, como una despolarización prematura ventricular o una fibrilación ventricular.
En estos pacientes, los medicamentos antiarrímicos pueden salvar sus vidas, sin embargo son drogas peligrosas por su capacidad de, paradógicamente, crear arrítmias en algunos pacientes.Por esa razón se debe evaluar los riesgos con los beneficios y se debe evitar el tratamiento de arrítmias asintomáticas. [5] Mecanismo de acción Los principales agentes antiarrítmicos bloquean los canales de sodio, bloquean los efectos del sistema autonómico sobre el corazón, la prolongación de un período refractario efectivo y el bloqueo de los canales de calcio.
El resultado es:[5] Una disminución de la aparición de marcapasos ectópicos al nodo sinusal; La reducción de la conducción y excitabilidad cardíaca aumentando el período refractario—este efecto es el resultado del bloqueo de los canales de sodio o de calcio en las células despolarizadas—; El bloqueo de la actividad eléctrica en casos de taquicardia o cuando hay pérdida del potencial de reposo celular; Clasificación de los antiarrítmicos Clásicamente estos farmacos se dividen en cinco grupos, basado en la clasificación Vaughan Williams presentada en 1970,[8] uno de los esquemas de clasificación más frecuentemente usados para los agentes antiarrítmicos.
Este esquema clasifica a estos medicamentos basado en el mecanismo primario del efecto antiarrítmico individual.Sin embargo, su dependencia en el mecanismo primario es una de las limitaciones de este esquema de clasificación, debido a que muchos de los agentes antiarrítmicos tienen múltiples mecanismos de acción. La amiodarona, por ejemplo, tiene efectos que lo ubican en los primeros cuatro grupos. Otra limitación es la falta de consideración por los efectos de los metabolitos de estas drogas. La procainamida—un agente de la clase Ia, cuyo metabolito N-acetil procainamida (NAPA) tiene acciones de la clase III—es uno de tales casos.
Una limitación histórica radica en que medicamentos como la digoxina y la adenosina–agentes antiarrítmicos importantes–no tenían cabida en el sistema de clasificación, de allí la instalación de la clase V. Bajo la clasificación de Vaughan Williams hay cinco clases de agentes antiarrítmicos: Clase I: fármacos que bloquean los canales de Na+ dependientes del voltaje.Inhiben la corriente de sodio y, por lo tanto, disminuyen la velocidad de conducción y la excitabilidad cardíacas. [9] Grupo Ia: fármacos con cinética de recuperación intermedia (quinidina, procainamida, disopiramida). Grupo Ib: fármacos con cinética de recuperación rápida (lidocaína, mexiletina, aprindina).
Grupo Ic: fármacos con una cinética lenta de recuperación del bloqueo (propafenona, flecainida).Clase II: agentes que se oponen al sistema nervioso simpático la mayoría de ellos bloqueantes. [9] Clase III:agentes que afectan la salida de K+, por lo tanto son fármacos que producen prolongación del potencial de acción, y por lo tanto, del período refractario (amiodarona, sotalol). [9] Clase IV:agentes que afectan los canales de Ca2+[9] dependientes del voltaje de tipo L, con la excepción de las dihidropiridinas, y son bloqueadores del nódulo auriculoventricular.
Al inhibir el flujo de calcio, disminuyen la velocidad de conducción y el período refractario de los nodos sinusal y AV, así como de células cardíacas anormalmente despolarizadas, como el miocardio isquémico ( verapamilo, diltiazem).Clase V:agentes cuya función es por otros mecanismos o por mecanismos desconocidos: Adenosina, sales de potasio y magnesio.
Tabla de clasificación Clase Ejemplos Mecanismo Usos clínico Ia Ib Bloqueo del canal de disopiramida + procainamida Na por asociación/disociación quinidina intermedia lidocaína fenitoína Bloqueo del canal de Na+ por asociación/disociación rápida Arr Prev fibr paro inic sob Pro sínd Wo Tra prev inm desp agu aun que por asis Prev auri Bloqueo del canal de Ic II III flecainida Na+ por propafenona asociación/disociación lenta propranolol timolol metoprolol sotalol atenolol amiodarona sotalol bretilio nibentan verapamil Tra taqu recu con ano Bloqueo de receptores adrenérgicos beta Dis mor de m Prev taqu recu Bloqueo de canales de K+ En e Wo (sot ven fibr (nib auri auri bloqueo de los canales Prev taqu sup paro IV diltiazem de Ca2+ Agentes clase I Los agentes antiarrítmicos de la clase I interfieren con el canal de Na+ y se agrupan de acuerdo al tipo de efecto que tienen sobre el canal sumado al efecto que ello tiene sobre la duración del potencial de acción cardíaco.
A esta clase de antiarrítmicos se les llama agentes estabilizadores de la membrana, describiendo la disminución de la capacidad excitable de la membrana celular producto de los antiarrítmicos clase I. Algunos antiarrítmicos de la clase II, como el propranolol también tiene efectos estabilizadores de membrana.Agentes clase Ia Red con en p fibr Disminución de la velóidad máxima (V max) por un agente clase Ia, extendiendo así la duración del potencial de acción. Los antiarrímicos de la clase Ia son bloqueadores del canal rápido de sodio con una cinética intermedia, es decir su capacidad de disociarse no es tan veloz.
[5] El bloquear a este canal, se deprime la fase 0 de la despolarización, reduciendo la velocidad máxima (Vmax) y prolongando el potencial de acción al enlentecer la conducción eléctrica.Los agentes en esta clase también causan una disminución en la conductividad y un incremento en el período refractario cardíaco. Las indicaciones de los antiarrítmicos clase Ia son en la taquicardia supraventricular y ventricular, latidos ventriculares prematuros sintomáticos y la prevención de una potencialmente letal fibrilación ventricular.
Los agentes de esta subclase incluyen la quinidina, la procainamida y la disopiramida La procainamida también se usa en el tratamiento de la fibrilación auricular en el abordaje del síndrome de Wolff-Parkinson-White y en el tratamiento de las taquicardias de complejo ancho que son hemodinámicamente estables.
Aunque se puede usar la procainamida conjuntamente con una quinidina en la conversión de una fibrilación auricular a un ritmo sinusal, solo deben ser usados junto con un agente bloqueador del nodo auriculoventricular, como la digoxina, verapamil o un beta bloqueante porque la procainamida y la quinidina pueden aumentar la conducción a través del nódulo AV y pueden causar una fibrilación auricular tipo 1:1, causando un aumento en la contracción ventricular.Agentes clase Ib Efecto de los antiarrítmicos de clase Ib sobre el potencial de acción cardíaco.
Los agentes antiarrítmicos clase Ib son bloqueadores del canal de sodio con cinética de asociación y disociación rápida, es decir, que tienen poco, si algún efecto sobre las frecuencias cardíacas más lentas y son más efectivos con la frecuencia cardíaca rápida.Los agentes de la clase Ib acortan la duración del potencial de acción y reducen su refractariedad. Estos agentes disminuyen la Vmax en células parcialmente despolarizadas por un potencial de acción de respuesta rápida. En su acción, los agentes de la clase Ib tienden a ser más específicos por los canales de sodio dependientes de voltaje.
La lidocaína en particular, es altamente dependiente de la frecuencia, es decir, a mayor la frecuencia cardíaca, mayor es su acción.Ello se debe a que la lidocaína selectivamente bloquea los canales de sodio en su estado abierto y tiene poca capacidad de unión sobre el canal en su estado de reposo. Los antiarrítmicos de la clase Ib se indican para el tratamiento de la taquicardia ventricular y los latidos ventriculares prematuros sintomáticos y en la prevención de la fibrilación ventricular. Algunos de los miembros de esta clase incluyen la lidocaína, mexiletina, tocainida y la fenitoína. Agentes clase Ic Efecto de agentes antiarrítmicos clase Ic sobre el potencial de acción cardíaco.
Los agentes antiarrítmicos clase Ic causan una depresión marcada de la fase 0 de despolarización, disminuyendo así la Vmax.Disminuyen la contractilidad, pero tienen un efecto mínimo sobre la duración del potencial de acción. [5] De los antiarrítmicos de clase I, los agentes de la subclase Ic son los que tienen los efectos bloqueadores del canal de sodio más potentes. La clase Ic de antiarrítmicos se indican en las potencialmente letales taquicardias ventriculares y fibrilación ventricular y para el tratamiento de la taquicardia supraventricular refractaria, como la fibrilación auricular.
Estos agentes son potencialmente pro-arrítmicos, especialmente bajo situaciones con trastornos estructurales del corazón, como un pos-infarto, de modo que son contraindicados en esas instancias.Algunos de los agentes Ic incluyen la encainida, flecainida, moricizina, y propafenona. Agentes clase II Los antiarrítmicos de la clsse II son bloqueadores beta convencionales y actúan bloqueando los efectos de las catecolaminas a nivel del receptor adrenérgico 1 disminuyendo así la actividad simpática sobre el corazón. [5] Estos agentes son particularmente útiles en el tratamiento de las taquicardias supraventriculares al disminuir la conducción eléctrica que pasa por el nódulo AV.
Algunos agentes en esta clase incluyen el atenolol, esmolol, propranolol y el metoprolol.Agentes clase III Efecto de la clase III de antiarrítmicos sobre el potencial de acción cardíaco. Los agentes antiarrítmicos de la clase III bloquean los canales de potasio, prolongando así la repolarización cardíaca. [11] Siendo que estos agentes no afectan los canales de sodio, la velocidad de conducción no se ve disminuida. La prolongación de la duración del potencial de acción y del período refreactario, combinado con el mantenimiento de la velocidad normal de conducción eléctrica, previenen las antiarrítmias con circuitos de re-entrada.
La clase III de antiarrítmicos exhiben una dependencia por uso revertida sobre la duración del potencial de acción, es decir, el período refractario del miocito ventricular aumenta con las frecuencias cardíacas más lentas.Ello incrementa la susceptibilidad del miocardio a segundas despolarizaciones tempranas, o despolarizaciones temparanas que siguen a una despolarización completa, especialmente a frecuencias cardíacas bajas. Los antiarrítmicos que así funcionan son más efectivos en la prevención de taquiarrítmias que en la conversión hacia un ritmo sinusal normal. La amiodarona se indica en el tratamiento de la taquicardia ventricular refractaria o la fibrilación ventricular, en particular en presencia de una isquemia aguda.
La prolongación del potencial de acción por amiodarona es unifrome en un rango amplio de frecuencias cardíacas, de modo que es un medicamento sin dependencia revertida por uso.En contraste, la dofeilida bloquea solo los canales de potasio rápidos, por lo que a frecuencias cardíacas altas, cuanda hay menor participación de canales de potasio, la dofetilida tiene un efecto menor sobre el potencial de acción. [11] El sotalol se indica para el tratamiento de las taquiarrítmias auriculares y ventriculares y las arrítmias AV de reentrada. La ibutilida es el único agente antiarrítmico aprobado en algunos países para el uso de la conversión aguda de una fibrilación auricular a un ritmo sinusal.
Otros agentes de este grupo incluyen la azimilida, bretilio, clofilium, tedisamil y la sematilida.Agentes clase IV Los agentes antiarrítmicos tipo IV son bloqueadores de los canales de calcio, por lo que disminuyen la conducción a través del nódulo AV y acortan la fase 2 o meseta del potencial de acción cardíaco. [5] Como consecuencia, reducen la contractilidad del corazón por lo que están contraindicados en la insuficiencia cardíaca. Sin embargo, en contraste con los beta bloqueadores, los antiarrítmicos clase IV permiten que el cuerpo vuelva a tomar control adrenérgico de la frecuencia y contractilidad cardíacas. Algunos agentes de la clase IV de antiarrítmicos incluyen al verapamil y al diltiazem.
Agentes clase V Los agentes antiarrítmicos tipo V incluyen la digoxina y la adenosina.La digoxina aumenta la actividad vagal por medio de su acción central sobre el sistema nervioso central, disminuyendo así la conducción de impulsos eléctricos a través del nodo AV. Referencias 1. Wyse D, Waldo A, DiMarco J, Domanski M, Rosenberg Y, Schron E, Kellen J, Greene H, Mickel M, Dalquist J, Corley S (2002). "A comparison of rate control and rhythm control in patients with atrial fibrillation.". N Engl J Med 347 (23): 1825–33. 2. Nichol G, McAlister F, Pham B, Laupacis A, Shea B, Green M, Tang A, Wells G (2002). "Meta-analysis of randomised controlled trials of the effectiveness of antiarrhythmic agents at promoting sinus rhythm in patients with atrial fibrillation.". Heart 87 (6): 535–43.
DOI:10.1136/heart.87.6.535.3. (1989). "Preliminary report: effect of encainide and flecainide on mortality in a randomized trial of arrhythmia suppression after myocardial infarction. The Cardiac Arrhythmia Suppression Trial (CAST) Investigators.". N Engl J Med 321 (6): 406–12. 4. (1992). "Effect of the antiarrhythmic agent moricizine on survival after myocardial infarction. The Cardiac Arrhythmia Suppression Trial II Investigators.". N Engl J Med 327 (4): 227–33. 5. a b c d e f g Katzung, Bertram G. (2007). «14», Basic & Clinical Pharmacology, 9, McGraw-Hill, 309-313. . 6. Genetics Home Reference. KNCQ1 (artículo completo disponible en inglés]. U.S. National Library of Medicine. Último acceso 08 de julio, 2008. 7. Genetics Home Reference.
SCN5A (artículo completo disponible en inglés].U.S. National Library of Medicine. Último acceso 08 de julio, 2008. 8. Vaughan Williams EM. "Classification of anti-arrhythmic drugs." In: Symposium on Cardiac Arrhythmias, Sandfte E, Flensted-Jensen E, Olesen KH eds. Sweden, AB ASTRA, Södertälje, 1970;449-472. 9. a b c d Texas Heart Institute (Instituto del Corazón de Texas). Antiarrítmicos (artículo completo disponible en español). Julio, 2007. último acceso 08 de julio, 2008. 10. A menos que se especifíque en las celdas individuales, la referencia para la tabla de clasificación es: Rang, H. P. (2003). Pharmacology. Edinburgh: Churchill Livingstone.
11. a b Lenz TL, Hilleman DE, Department of Cardiology, Creighton University, Omaha, Nebraska .Dofetilide, a New Class III Antiarrhythmic Agent. Pharmacotherapy 20(7):776-786, 2000. (Medline abstract) Agitación térmica Animación mostrando la agitación térmica de un gas. Cinco partículas han sido coloreadas de rojo para facilitar el seguimiento de sus movimientos. La agitación térmica es el movimiento caótico que tienen las moléculas dependiendo de la temperatura y del estado de agregación. Por movimiento caótico se entiende un movimiento no ordenado, cada una se mueve en un sentido y constantemente están cambiando su dirección y sentido de movimiento. La dependencia con la temperatura es, a mayor temperatura, mayor agitación térmica y viceversa.
La dependencia con el estado de agregación está ligado a las interacciones intermoleculares en estado gaseoso, líquido y sólido.En estado gaseoso existe menor interacción intermoleculares y las moléculas son "más libres" de moverse como quieran; mayor agitación térmica. En estado sólido, las interacciones moleculares son mayores y la agitación térmica puede ser una mera vibración; digamos que "unas a otras no se dejan moverse libremente". Y en estado líquido, es un intermedio entre el estado gaseoso y sólido. El contenido de este artículo incorpora material de una entrada de la Enciclopedia Libre Universal, publicada en español bajo la licencia GFDL.
Agrupaciones galácticas Grupo de Galaxias HCG (Hickson C ompact Group) 87, vista desde el Observatorio Gemini en Cerro Pachón, Chile.Los agregados galácticos son super-estructuras cósmicas formadas por miles de galaxias. La materia bariónica del universo visible, se distribuye a lo largo de estructuras colosales que reciben el nombre de filamentos o muros según su forma quedando gran cantidad de regiones huecas sin apenas materia luminosa llamadas vacíos. Dichas estructuras están formadas por miles de agregados de galaxias de diferentes formas y tamaños. Estas colosales macroestructuras son las más recientes en la historia del universo.
Dichas estructuras se mantienen cohesionadas por la fuerza de la gravedad pero la expansión acelerada del cosmos podría acabar imponiéndose, si no lo ha hecho ya, y detener la acumulación de materia.Los distintos agregados de galaxias que conforman el universo se llaman grupos, cúmulos y supercúmulos según su tamaño y número de galaxias que contienen. Van desde pequeños grupos con un decena de galaxias hasta grandes cúmulos de miles de galaxias. Los supercúmulos son estructuras más complejas formadas por centenares o miles de cúmulos galácticos interaccionando gravitatoriamente entre sí.
Contenido 1 Grupos 2 Cúmulos 2.1 Características 2.2 Dinámica 2.3 Evolución 3 Supercúmulos 4 Estructuras a gran escala 5 Véase también Grupos Los grupos de galaxias son los menores agregados de dichos objetos.Tienen las siguientes propiedades: Contienen menos de 50 galaxias Tienen un diámetro de unos 2 megaparsec (Mpc) Tienen una masa del orden de 1013 masas solares La dispersión de velocidades es del orden de 150 km/s El grupo que contiene nuestra galaxia, la Vía Láctea, es el llamado Grupo Local que consta de más de 40 galaxias.
Cúmulos Características Segun el astrónomo los cúmulos de galaxias son más grandes que los grupos, aunque no hay una línea divisoria definida entre ambas categorías.Al ser observados visualmente, los cúmulos aparecen como colecciones de galaxias autosostenidas por la atracción gravitacional. Sin embargo, sus velocidades son demasiado grandes para que sigan gravitacionalmente limitadas por sus fuerzas de atracción mutuas. Esta observación demuestra la implicación de la presencia de un componente adicional invisible. Observaciones en rayos X han revelado la presencia de una gran cantidad de gas intergaláctico o intracúmulo. Este gas es muy caliente, alrededor de 108K, por lo tanto emite en una frecuencia alta, rayos X.
La masa total del gas es mayor que la de todas las galaxias del cúmulo por un factor 2.Sin embargo, este gas sigue siendo insuficiente para mantener la cohesión gravitatoria de los cúmulos. Puesto que el gas intracúmulo está en equilibrio aproximado con el campo gravitacional de todo el cúmulo, su distribución en él permite calcular la forma de dicho campo y, por ende, la masa total del cúmulo. Resulta que la masa total deducida es mucho más grande que la masa de las galaxias y del gas caliente juntos. La componente que falta no puede ser otra que la materia oscura cuya naturaleza es aún desconocida.
En un cúmulo típico aproximadamente solo el 5% de la masa total se encuentra en forma de galaxias, un 10% en forma de gas caliente intracúmulo y el 85% restante es materia oscura.En los cúmulos predominan las galaxias elípticas e irregulares fruto de la interacción de galaxias. Dinámica La dinámica de los cúmulos galácticos es un tanto peculiar. Se los puede considerar como un gas de galaxias donde las partículas que lo componen en vez de ser átomos o moléculas son galaxias. Ese gas tiene unas condiciones particulares puesto que las galaxias se atraen entre sí con fuerza mientras que las partículas atómicas no lo hacen.
Un gas normal tiende a expandirse y ocupar el máximo espacio mientras que los cúmulos galácticos no solo tienden a expandirse sino que también tienden a colapsar por su propia gravedad.Esto hace que se hallen en un delicado equilibrio entre su dispersión de velocidades y su masa. Cuanta más masa tenga el cúmulo más alta será la velocidad de escape. Así mismo, más masa implica mayores fuerzas gravitatorias lo que conlleva mayores aceleraciones y mayores velocidades. Así pues, en los cúmulos más masivos las galaxias que lo componen se mueven más deprisa unas respecto a otras que en los menos masivos.
Es el propio campo de gravedad el que confina a las galaxias en un volumen de espacio determinado de la misma manera que las paredes de un recipiente hermético confinan el aire de su interior.Evolución La evolución de los cúmulos puede tomar dos rumbos. Unos tienden a concentrar más materia agregando pequeños grupos y otras galaxias individuales lo cual los lleva compactarse cada vez más y a adquirir una forma esferoidal. A la vez que dicho cúmulo fagocita galaxias y grupos el núcleo del cúmulo canibaliza galaxias de éste convirtiéndose su centro en una o más galaxias elípticas gigantes que mantiene a las demás orbitando a su alrededor. Otros cúmulos menos ligados gravitatoriamente pueden evolucionar de forma distinta.
Estadísticamente siempre hay alguna galaxia capaz de alcanzar la velocidad de escape para salir del cúmulo.Estos cúmulos empiezan a perder galaxias y a medida que pierden masa la velocidad de escape disminuye lo que acelera la pérdida de más galaxias provocando la fragmentación del mismo hasta su total dilución. Este proceso puede venir motivado por la presencia de cúmulos mayores en las cercanías los cuales acabarán por engullir al pequeño. Así pues los cúmulos tienen las siguientes propiedades: Contienen desde 50 a 1000 galaxias, gas caliente emisor de rayos X y gran cantidad de materia oscura. La distribución de estos tres componentes es aproximadamente la misma en cada cúmulo.
La masa total va desde 1014 a 1015 veces la masa solar.Típicamente tienen un diámetro de 8 Mpc. Las velocidades de las galaxias van desde 800 a 1000 km/s. La distancia media entre cúmulos es del oden de 10 Mpc. Algunos cúmulos galácticos notables en nuestras cercanías son el Cúmulo de Virgo hacia el cual nos dirijimos y el Cúmulo de Coma Nota: los cúmulos de galaxias no deben confundirse con los cúmulos estelares, ya sean cúmulos abiertos o globulares, los cuales son estructuras mucho más pequeñas que se hallan dentro de las galaxias u orbitándolas.
Supercúmulos Artículo principal: Supercúmulo Los grupos, cúmulos y algunas galaxias aisladas pueden formar estructuras mayores, los supercúmulos.Estas agrupaciones se comportarían de forma parecida a los cúmulos solo que en ellas las partículas elementales que lo constituyen ya no serían galaxias individuales sino grupos y cúmulos galácticos enteros que se mueven confinados en su colosal campo gravitatorio. Nuestro grupo de galaxias, el Grupo Local, se halla dentro del Supercúmulo de Virgo el cual también contiene al extenso Cúmulo de Virgo el cual actúa como centro de gravedad del mismo. El Supercúmulo de Virgo al ser el nuestro también recibe el nombre de Supercúmulo Local.
Estructuras a gran escala Artículo principal: Estructura a gran escala del universo En las escalas más grandes del universo visible, la materia se agrupa en filamentos y extensas paredes o muros rodeadas de vacíos a modo de enormes burbujas huecas con los supercúmulos en forma de nodos.La estructura parece asemejarse a la de a una esponja. Véase también Estructura a gran escala del universo Cosmología Objeto astronómico Agua ligera En la terminología de reactores nucleares, agua ligera es el agua común, compuesta por dos átomos de y 1 de . Otros reactores usan agua pesada.
Los reactores de 'agua ligera' son más simples y baratos que los reactores normales, y aunque tienen la misma capacidad de generar electricidad, no están diseñados para producir plutonio para la fabricación de armas.Agua pesada Agua pesada, agua formada con átomos de deuterio o sea hidrógeno pesado, La fórmula química del agua deuterada, óxido de deuterio o agua pesada es: D2O o 2H2O. La fórmula química del agua tritiada, óxido de tritio o agua superpesada es:T2O o 3H2O. Como ya se ha indicado, esta forma es radiactiva.
Además hay otras variedades isotópicas como: agua semipesada cuya fórmula química es HDO, DHO o 1H2H O. y una forma sin nombre que correspondería a un "agua semi - superpesada", a veces llamada agua tritiada, cuya fórmula química es HTO, THO o 1H3H O. Esta forma es radiactiva.También es de suma utilidad para detectores de neutrinos como el Kamiokande. Contenido 1 Propiedades 2 Moderador en Fisión nuclear 3 Plantas productoras 4 Véase también Propiedades Esta diferencia en los elementos del núcleo modifica algunas de sus propiedades físicas, tales como la densidad o el punto de ebullición.
El agua pesada se encuentra presente, en pequeñas cantidades, mezclada con el agua normal, y puede ser separada de ésta por destilación fraccionada.También se puede separar del agua por absorción con amoniaco que contenga deuterio. Propiedad Punto de fusión (°C) Punto de ebullición (°C) Densidad (a 20°C, g/mL) Temp.
de máxima densidad (°C) Viscosidad (a 20°C, centipoise) Tensión superficial (a 25°C, dyn·cm) Entalpía de fusión (cal/mol) D2O (agua H2O (agua pesada) 3,82 101,4 1,1056 corriente) 0,0 100,0 0,9982 11,6 4,0 1,25 1,005 71,93 71,97 1,515 1,436 Entalpía de vaporización (cal/mol) pH (a 25°C) 10,864 10,515 7,41 7,00 Moderador en Fisión nuclear La principal aplicación tecnológica del agua pesada ha sido como moderador en los procesos de fisión nuclear, por lo que se convirtió en una sustancia estratégica durante el desarrollo de los primeros reactores nucleares; los aliados emprendieron una serie de acciones directas para impedir el acceso de los nazis al agua pesada, véase la Batalla del agua pesada.
Hoy en día ha perdido parte de su importancia, al utilizarse también como moderadores en las centrales nucleares otros materiales como el agua normal o el grafito.Plantas productoras Estados Unidos produjo agua pesada hasta la década de 1980. Canadá fue el mayor productor mundial hasta el cierre de la planta de en 1997. Noruega: La compañía Norsk Hydro inauguró en 1934 la primera planta comercial de producción en el mundo. India es el segundo mayor productor de agua pesada a través del Heavy Water Board. Argentina es un fuerte exportador, produciendo en una planta con capacidad de 600t/año ubicada en Arroyito, Provincia del Neuquén, operada por la empresa estatal ENSI. Rumania produce agua pesada en la planta Drobeta Girdler Sulfide y exporta ocasionalmente.
Francia operó una pequeña planta hasta 1970.Reino Unido: En 1958, exportó 20 tn a Israel. Véase también La Batalla del agua pesada ENSI Agujero blanco Agujero blanco (ocasionalmente también denominado fuente blanca) es el término propuesto para definir una entidad física, cuya existencia no se ha probado aún, pero son matemáticamente posibles. Se trataría de una región finita del espacio-tiempo, visible como objeto celeste con una densidad tal que deforma el espacio pero que, a diferencia del agujero negro, deja escapar materia y energía en lugar de absorberla. De hecho ningún objeto puede permanecer en el interior de dicha región durante un tiempo infinito.
Una forma de visualizar lo que sucede en un agujero blanco es imaginar el reverso temporal de un agujero negro.Los más importantes avances en esta teoría son debidos a los trabajos independientes de los matemáticos Igor Nivikov y Yuval Ne'eman en la década de 1960, basados en la solución de Kruskal-Schwarzschild de las ecuaciones de la relatividad general.
Un típico agujero negro de Schwarzschild es descrito como una singularidad en la cual una geodésica puede sólo ingresar, tal tipo de agujero negro incluye dos tipos de horizonte: un horizonte "futuro" (es decir, una región de la cual no se puede salir una vez que se ha ingresado en ella, y en la cual el tiempo-con el espacio- son curvados hacia el futuro), y un horizonte "pasado", el horizonte pasado tiene por definición la de una región donde es imposible la estancia y de la cual sólo se puede salir; el horizonte futuro entonces ya correspondería a un agujero blanco (nótese que un agujero blanco no debe confundirse con la solución de Schwarzschild que recurre a la masa negativa correspondiente a una singularidad desnuda, la cual carecería de un horizonte de sucesos que delimitaría diferentes regiones del espacio-tiempo).
En el caso de un agujero negro de Reißner-Nordstrøm el agujero blanco pasa a ser -por ahora siempre hipotéticamente- la "salida" un agujero negro en otro universo.Hipótesis varias En principio se ha supuesto a los agujeros blancos como una especie de "salida" de los agujeros negros, ambos tipos de singularidades probablemente estarían conectadas por un agujero de gusano (notar que, como los agujeros blancos, los agujeros de gusano aún no han sido comprobados en diciembre de 2008); cuando se descubrieron los quásares se supuso que estos eran los buscados agujeros blancos pero en la actualidad tal supuesto ha sido descartado.
[1] En la actualidad predomina la idea de que los agujeros blancos serían muy inestables, durarían muy poco tiempo e incluso tras formarse podrían colapsar y transformarse en agujeros negros.También se arriesga que la singularidad inicial del big bang pudo haber sido una especie de agujero blanco en sus momentos iniciales. Referencias 1. Sitio oficial de la Nasa en donde se explica la cuestión: los cuásares fueron supuestos como agujeros blancos pero la hipótesis quedó descartada Véase también Agujero negro Agujero de gusano Diagrama de Penrose-Carter Relatividad general Agujero negro El núcleo de la galaxia elíptica gigante M87, donde -hay evidenci agujero negro supermasivo.
También se observa un potente chorro de materia eyectada por los poderosos campos magnéticos genera éste.Imagen tomada por el Telescopio espacial Hubble. Un agujero negro u hoyo negro es una región del espacio-tiempo provocada por una gran concentración de masa en su interior, con enorme aumento de la densidad, lo que provoca un campo gravitatorio tal que ninguna partícula ni la energía, por ejemplo la luz, puede escapar de dicha región. La curvatura del espacio-tiempo o «gravedad de un agujero negro» provoca una singularidad envuelta por una superficie cerrada, llamada horizonte de sucesos. Esto es debido a la gran cantidad de energía del objeto celeste.
El horizonte de sucesos separa la región de agujero negro del resto del Universo y es la superficie límite del espacio a partir de la cual ninguna partícula puede salir, incluyendo la luz.Dicha curvatura es estudiada por la relatividad general, la que predijo la existencia de los agujeros negros y fue su primer indicio. En los años 70, Hawking y Ellis[1] demostraron varios teoremas importantes sobre la ocurrencia y geometría de los agujeros negros.
Previamente, en 1963, Roy Kerr había demostrado que en un espacio-tiempo de cuatro dimensiones todos los agujeros negros debían tener una geometría cuasi-esférica determinada por tres parámetros: su masa M, su carga eléctrica total e y su momento angular L. Se cree que en el centro de la mayoría de las galaxias, entre ellas la Vía Láctea, hay agujeros negros supermasivos.La existencia de agujeros negros está apoyada en observaciones astronómicas, en especial a través de la emisión de rayos X por estrellas binarias y galaxias activas.
Contenido 1 Proceso de formación 2 Historia del agujero negro 3 Clasificación teórica 3.1 Agujeros negros primordiales 3.2 Según la masa 3.3 Según el momento angular 4 Zonas observables 5 La entropía en los agujeros negros 6 Los agujeros negros en la física actual 6.1 Descubrimientos recientes 6.1.1 El mayor 6.1.2 El menor 6.1.3 Chorros de plasma 6.2 Formación de estrellas por el influjo de agujeros negros 7 Referencia 7.1 Bibliografía 8 Véase también 9 Enlaces externos Proceso de formación El origen de los agujeros negros es planteado por el astrofísico Stephen Hawking en su libro titulado Agujeros negros y la historia del tiempo.Allí él mismo comenta acerca del proceso que da origen a la formación de los agujeros negros.
Dicho proceso comienza posteriormente a la muerte de una gigante roja (estrella de gran masa), llámese muerte a la extinción total de su energía.Posteriormente al pasar varios miles de millones de años la fuerza gravitatoria de dicha estrella comienza a ejercer fuerza sobre si mismo originando una masa concentrada en un pequeño volumen, convirtiéndose de ese modo en una enana blanca. En este punto dicho proceso puede proseguir hasta el colapso de dicho astro por la auto atracción gravitatoria que termina por convertir a esta enana blanca en un agujero negro.
Este proceso acaba por reunir una fuerza de atracción tan fuerte que atrapa hasta la luz, en este momento podemos hablar de una masa infinita atrapada sin volumen, que es el mismo centro del agujero negro denominado singularidad.Al pasar el tiempo este agujero negro podría desarrollar fuerzas de atracción suficientes para devorar sistemas solares y hasta galaxias circundantes. Últimamente se ha comprobado la existencia de un agujero negro en el centro de la galaxia en donde se encuentra nuestro sistema solar, la Vía Láctea.
Historia del agujero negro Un agujero negro (simulado) de diez masas solares según lo visto de una distancia de 600 kilómetros con la vía láctea en el fondo (ángulo horizontal de la abertura de la cámara fotográfica: 90°).El concepto de un cuerpo tan denso que ni la luz pudiese escapar de él, fue descrito en un artículo enviado en 1783 a la Royal Society por un geólogo inglés llamado John Michell . Por aquel entonces la teoría de Newton de gravitación y el concepto de velocidad de escape eran muy conocidas. Michell calculó que un cuerpo con un radio 500 veces el del Sol y la misma densidad tendría, en su superficie, una velocidad de escape igual a la de la luz y sería invisible.
En 1796, el matemático francés Pierre-Simon Laplace explicó en las dos primeras ediciones de su libro Exposition du Systeme du Monde la misma idea aunque, al ganar terreno la idea de que la luz era una onda sin masa, en el siglo XIX fue descartada en ediciones posteriores.En 1915, Einstein desarrolló la relatividad general y demostró que la luz era influenciada por la interacción gravitatoria. Unos meses después, Karl Schwarzschild encontró una solución a las ecuaciones de Einstein, donde un cuerpo pesado absorbería la luz. Se sabe ahora que el radio de Schwarzschild es el radio del horizonte de sucesos de un agujero negro que no gira, pero esto no era bien entendido en aquel entonces. El propio Schwarzschild pensó que no era más que una solución matemática, no física.
En 1930, Subrahmanyan Chandrasekhar demostró que un cuerpo con una masa crítica, (ahora conocida como límite de Chandrasekhar) y que no emitiese radiación, colapsaría por su propia gravedad porque no había nada que se conociera que pudiera frenarla (para dicha masa la fuerza de atracción gravitatoria sería mayor que la proporcionada por el principio de exclusión de Pauli).Sin embargo, Eddington se opuso a la idea de que la estrella alcanzaría un tamaño nulo, lo que implicaría una singularidad desnuda de materia, y que debería haber algo que inevitablemente pusiera freno al colapso, línea adoptada por la mayoría de los científicos.
En 1939, Robert Oppenheimer predijo que una estrella masiva podría sufrir un colapso gravitatorio y, por tanto, los agujeros negros podrían ser formados en la naturaleza.Esta teoría no fue objeto de mucha atención hasta los años 60 porque, después de la Segunda Guerra Mundial, se tenía más interés en lo que sucedía a escala atómica. En 1967, Stephen Hawking y Roger Penrose probaron que los agujeros negros son soluciones a las ecuaciones de Einstein y que en determinados casos no se podía impedir que se crease un agujero negro a partir de un colapso. La idea de agujero negro tomó fuerza con los avances científicos y experimentales que llevaron al descubrimiento de los púlsares. Poco después, el término "agujero negro" fue acuñado por John Wheeler.
Clasificación teórica Según su origen, teóricamente pueden existir al menos tres clases de agujeros negros: Agujeros negros primordiales Aquellos que fueron creados temprano en la historia del Universo.Sus masas pueden ser variadas y ninguno ha sido observado. Según la masa Agujeros negros supermasivos: con masas de varios millones de masas solares. Son el corazón de muchas galaxias. Se forman en el mismo proceso que da origen a las componentes esféricas de las galaxias. Agujeros negros de masa estelar. Se forman cuando una estrella de masa 2,5 mayor que la masa del Sol se convierte en supernova e implosiona. Su núcleo se concentra en un volumen muy pequeño que cada vez se va reduciendo más.
Según el momento angular Un agujero negro sin carga y sin momento angular es un agujero negro de Schwarzschild, mientras que un agujero negro rotatorio (con momento angular mayor que 0), se denomina agujero negro de Kerr.Zonas observables Visión de un artista de un agujero negro con disco de acreción. Impresión de un artista de un agujero negro con una estrella del compañero de cerca que se mueve en órbita alrededor que excede su límite de Roche. la materia en que cae forma un disco de acrecimiento, con algo de la materia que es expulsada en chorros polares colimados altamente energéticos. En las cercanías de un agujero negro se suele formar un disco de acrecimiento.
Lo compone la materia con momento angular, carga eléctrica y masa, la que es afectada por la enorme atracción gravitatoria del mismo, ocasionando que inexorablemente atraviese el horizonte de sucesos y, por lo tanto, lo incremente.Véase también: Acreción En cuanto a la luz que atraviesa la zona del disco, también es afectada, tal como está previsto por la Teoría de la Relatividad. El efecto es visible desde la Tierra por la desviación momentánea que produce en posiciones estelares conocidas, cuando los haces de luz procedentes de las mismas transitan dicha zona.
Hasta hoy es imposible describir lo que sucede en el interior de un agujero negro; sólo se puede imaginar, suponer y observar sus efectos sobre la materia y la energía en las zonas externas y cercanas al horizonte de sucesos y la ergosfera.Uno de los efectos más controvertidos que implica la existencia de un agujero negro es su aparente capacidad para disminuir la entropía del Universo, lo que violaría los fundamentos de la termodinámica, ya que toda materia y energía electromagnética que atraviese dicho horizonte de sucesos, tienen asociados un nivel de entropía. Stephen Hawking propone en su último libro que la única forma que no aumente la entropía sería que la información de todo lo que atraviese el horizonte de sucesos siga existiendo de alguna forma.
Otra de las implicaciones de un agujero negro supermasivo sería la probabilidad que fuese capaz de generar su colapso completo, convirtiéndose en una singularidad desnuda de materia.La entropía en los agujeros negros Según Stephen Hawking, en los agujeros negros se viola el segundo principio de la termodinámica, lo que dio pie a especulaciones sobre viajes en el espacio-tiempo y agujeros de gusano. El tema está siendo motivo de revisión; actualmente Hawking se ha retractado de su teoría inicial y ha admitido que la entropía de la materia se conserva en el interior de un agujero negro (véase enlace externo).
Según Hawking, a pesar de la imposibilidad física de escape de un agujero negro, estos pueden terminar evaporándose por la llamada radiación de Hawking, una fuente de rayos X que escapa del horizonte de sucesos.El legado que entrega Hawking en esta materia es de aquellos que, con poca frecuencia en física, son calificados de bellos. Entrega los elementos matemáticos para comprender que los agujeros negros tienen una entropía gravitacional intrínseca. Ello implica que la gravedad introduce un nivel adicional de impredictibilidad por sobre la incertidumbre cuántica. Parece, en función de la actual capacidad teórica, de observación y experimental, como si la naturaleza asumiera decisiones al azar o, en su efecto, alejadas de leyes precisas más generales.
La hipótesis de que los agujeros negros contienen una entropía y que, además, ésta es finita, requiere para ser consecuente que tales agujeros emitan radiaciones térmicas, lo que al principio parece increíble.La explicación es que la radiación emitida escapa del agujero negro, de una región de la que el observador exterior no conoce más que su masa, su momento angular y su carga eléctrica. Eso significa que son igualmente probables todas las combinaciones o configuraciones de radiaciones de partículas que tengan energía, momento angular y carga eléctrica iguales. Son muchas las posibilidades de entes, si se quiere hasta de los más exóticos, que pueden ser emitidos por un agujero negro, pero ello corresponde a un número reducido de configuraciones.
El número mayor de configuraciones corresponde con mucho a una emisión con un espectro que es casi térmico.Físicos como Jacob D. Bekenstein han relacionado a los agujeros negros y su entropía con la teoría de la información. Los agujeros negros en la física actual Se explican los fenómenos físicos mediante dos teorías que se contradicen entre ellas; la mecánica cuántica, que explica la naturaleza de «lo muy pequeño», donde predomina el caos y la estadística, y la relatividad general, que explica la naturaleza de «lo muy pesado» y que afirma que en todo momento se puede saber con exactitud dónde está un cuerpo.
Cualquiera de estas teorías están experimentalmente confirmadas pero, al intentar explicar la naturaleza de un agujero negro, es necesario discernir si se aplica la cuántica por ser algo muy pequeño o la relatividad por ser algo tan pesado.Está claro que hasta que no se disponga de una física más avanzada no se conseguirá explicar realmente la naturaleza de este fenómeno. Descubrimientos recientes En 1995 un equipo de investigadores de la UCLA dirigido por Andrea Ghez demostró mediante simulación por ordenadores la posibilidad de la existencia de agujeros negros supermasivos en el núcleo de las galaxias.
Tras estos cálculos mediante el sistema de óptica adaptable se verificó que algo deformaba los rayos de luz emitidos desde el centro de nuestra galaxia (la Vía Láctea).Tal deformación se debe a un invisible agujero negro supermasivo que ha sido denominado Sgr.A (o Sagittarius A), al mismo se le supone una masa 4,5 millones de veces mayor que la del Sol. El agujero negro supermasivo del centro de nuestra galaxia actualmente sería poco activo ya que ha consumido gran parte de la materia bariónica, que se encuentra en la zona de su inmediato campo gravitatorio y emite grandes cantidades de radiación.
En diciembre de 2008 un equipo del Instituto Max Planck dirigido por Reinhard Genzel confirma la existencia de tal agujero negro supermasivo en el centro de la Vía Láctea calculándosele una masa de 4 millones de soles y considerándole a una distancia de 27.000 años luz (unos 254.000 millones de km respecto de la Tierra).Por su parte la astrofísica Feryal Özel ha explicado algunas características probables en torno a un agujero negro: cualquier, incluido el espacio, cosa que entre en la fuerza de marea provocada por un agujero negro se aceleraría a extremada velocidad como en un vórtice y todo el tiempo dentro del área de atracción de un agujero negro se dirigiría hacia el mismo agujero negro.
En el presente se considera que, pese a la perspectiva destructiva que se tiene de los agujeros negros, éstos al condensar en torno a sí materia sirven en parte a la constitución de las galaxias y a la formación de nuevas estrellas.En junio de 2004 astrónomos descubrieron un agujero negro súper masivo, el Q0906+6930, en el centro de una galaxia distante a unos 12.700 millones de años luz. Esta observación indicó una rápida creación de agujeros negros súper masivos en el Universo joven. La formación de micro agujeros negros en los aceleradores de partículas ha sido informada,[2] pero no confirmada. Por ahora, no hay candidatos observados para ser agujeros negros primordiales.
El mayor En el año 2007 se descubrió el agujero negro, denominado IC 10 X-1, está en la constelación de Casiopea cerca de la galaxia IC 10, a una distancia de 1,8 millones de años luz de la Tierra con una masa de entre 24 y 33 veces la de nuestro Sol, y se considera el mayor hasta la fecha.[3] Posteriormente en abril de 2008 la revista Nature publicó un estudio realizado en la Universidad de Turku (Finlandia) por un equipo de científicos dirigido por Mauri Valtonen descubrió un sistema binario, un blazar llamado OJ287, tal sistema está constituido por un agujero negro menor que orbita en torno al mayor, la masa del mayor sería de 18.000 millones de veces la de nuestro Sol.
Se supone que en cada intervalo de rotación el agujero negro menor golpea la ergosfera del mayor dos veces generándose un quásar.El menor Sin contar los posibles microagujeros negros que casi siempe son efímeros al producirse a escalas subatómicas; macroscópicamente en abril de 2008 el equipo coordinado por Nikolai Saposhnikov y Lev Titarchuk ha identificado el más pequeño de los agujeros negros conocidos hasta la fecha; ha sido denominado J 1650, se ubica en la constelación Ara (o Altar) de la Vía Láctea (la misma galaxia de la cual forma parte la Tierra). J 1650 tiene una masa equivalente a 3,8 soles y tan solo 24 km de diámetro se habría formado por el colapso de una estrella; tales dimensiones estaban previstas por las ecuaciones de Einstein.
Se considera que son prácticamente las dimensiones mínimas que puede tener un agujero negro ya que una estrella que colapsara y produjera un fenómeno de menor masa se transformaría en una estrella de neutrones.Se considera que pueden existir muchos más agujeros negros de dimensiones semejantes. Chorros de plasma En abril de 2008 la revista Nature publicó un estudio realizado en la Universidad de Boston dirigido por Alan Marscher explica que chorros de plasma colimados parten de campos magnéticos ubicados cerca del borde de los agujeros negros. En zonas puntuales de tales campos magnéticos los chorros de plasma son orientados y acelerados a velocidades cercanas a C (velocidad de la luz), tal proceso es comparable a la aceleración de partículas para crear una corriente de chorro (jet stream) en un reactor.
Cuando los chorros de plasma que son originados por un agujero negro son observables desde la Tierra tal tipo de agujero negro entra en la categoría de blazar.
Que un agujero negro "emita" radiaciones parece una contradicción, sin embargo esto se explica: todo objeto (supóngase una estrella) que es atrapado por la gravitación de un agujero negro, antes de ser completamente "engullido", antes de pasar tras el horizonte de sucesos, se encuentra tan fuertemente presionado por las fuerzas de marea del agujero negro en la zona de la ergosfera que una pequeña parte de su materia sale disparada a velocidades próximas a la de la luz (como cuando se aprieta fuertemente una naranja: parte del material de la naranja sale eyectado en forma de chorros de jugo, en el caso de los objetos atrapados por un agujero negro, parte de su masa sale disparada centrífugamente en forma de radiación fuera del campo gravitatorio de la singularidad).
Formación de estrellas por el influjo de agujeros negros Nuevas estrellas podrían formarse a partir de los discos elípticos en torno a agujeros negros; tales discos elípticos se producen por antiguas nubes de gas desintegradas previamente por los mismos agujeros negros; las estrellas producidas por condensación o acreción de tales discos elípticos al parecer tienen órbitas muy elípticas en torno a los agujeros negros supermasivos.Referencia 1. * Hawking, S. W. & Ellis, G. F. R.: The Large Scale Structure of Space-time, Cambridge, Cambridge University Press, 1973, . 2. BBC News: Lab fireball 'may be black hole' (17 de marzo de 2005). Consultado el 25 de marzo. 3.
Massive Black Hole Smashes Record (Harvard-Smithsonian Center for Astrophysics) Bibliografía Hawking, S. W. & Ellis, G. F. R.: The Large Scale Structure of Space-time, Cambridge, Cambridge University Press, 1973, .Véase también Karl Schwarzschild Estrella de neutrones Magnetar Púlsar Objeto astronómico Galaxia activa Galaxia elíptica M87 Agujero negro de Kerr-Newman (No confundir con el agujero negro de Kerr) Agujero negro de Reissner-Nordstrøm Micro agujero negro Agujero de gusano Agujero blanco Singularidad desnuda Diagrama de Penrose Teoría de los universos fecundos Enlaces externos Stephen Hawking cambia de opinión sobre los agujeros negros Hawking, S. W. & Ellis, G. F. R.: The Large Scale Structure of Space-time, Cambridge, Cambridge University Press, 1973, . Libro seminal, matemáticamente complejo.
Wald, R. M.: General the Relativity, (cap.12 "Black Holes"), Chicago, The University of Chicago Press, 1984, . Proyecto Celestia Vídeo educativo para entender los agujeros negros (vídeo nº 28). Cientos de agujeros negros listos a devorar todo a su paso en nuestra galaxia Científicos finlandeses lograron calcular la masa del mayor agujero negro conocido en el espacio ALBA (sincrotrón) ALBA es un sincrotrón que actualmente se construye en Barcelona, España. Esta situado en el campus de la Universidad Autónoma de Barcelona en Sardañola del Vallés. La construcción esta cofinanciada a cargo de los presupuestos del Gobierno de España y la Generalidad de Cataluña.
La planificación de las obras y su posterior explotación está siendo llevada a cabo por el Consorcio para la Construcción, Equipamiento y Explotación del Laboratorio de Luz de Sincrotrón(CELLS) con sede en Bellaterra Enlaces externos Descripción de ALBA Página oficial (inglés) Lightsources.org Albedo Albedos % de luz reflejada Nieve reciente 86 Nubes muy brillantes 78 La nieve tiene el albedo más alto Nubes (promedio) 50 Para el Desiertos terrestres 21 álbum de Suelo terrestre sin vegetación 18 Vangelis ,Bosques ver (promedio) 8 Albedo 0.39 Ceniza volcánica 7 El 5 a 10 albedo Océanos es la relación,Sistema Solar (albedo medio) expresada Luna 7 en Mercurio porcentaje, de Venus (atmósfera) la radiaciónTierra vista desde el espacio que cualquierMarte superficie Júpiter refleja sobre Saturno la radiaciónUrano que incide Neptuno 6 70 37 a 39 15 41 42 45 55 sobre Sistema Solar otros (albedo medio) la misma.
Meteoroides 7 Las Fobos 6 superficies claras 6 tienen Deimos valores Cometa Halley 4 de albedo superior a las oscuras, y las brillantes más que las mates.El albedo medio de la Tierra es del 30-32% de la radiación que proviene del Sol. Es una medida de la tendencia de una superficie a reflejar radiación incidente. En astronomía ofrece un medio indirecto de averiguar la naturaleza de un astro mediante la comparación de su albedo con el de materias conocidas: el más alto corresponde al del planeta Venus, el más bajo a algunos asteroides carbonáceos y así como a los satélites marcianos Fobos y Deimos. En física nuclear, el albedo es la capacidad, por parte de una sustancia, de reflejar neutrones.
Se mide por el cociente entre el número de neutrones reflejados y el número total de neutrones emitidos.Albert Abraham Michelson Albert Abraham Michelson (Strzelno, Polonia, 19 de diciembre de 1852 - Pasadena, Estados Unidos, 9 de mayo de 1931), fue un físico, conocido por sus trabajos acerca de la velocidad de la luz. Recibió el Premio Nobel de Física en 1907. Contenido 1 Biografía 2 La velocidad de la luz 2.1 Primeras mediciones 2.2 El monte Wilson, 1926 2.3 Michelson, Pease & Pearson, 1932 3 Interferometría 4 Enlaces externos Biografía Albert Abraham Michelson. Hijo de Samuel Michelson y de Rozalia, hija de Abraham Przylubski. Dejó su Prusia natal (en lo que hoy es Polonia) con sus padres en 1855.
Vivió primero en Nueva York, y más adelante en Virginia City, Nevada y San Francisco, donde su familia prosperó en los negocios.A los 17 años entró en la Academia Naval de los Estados Unidos en Annapolis, Maryland, en donde aprendió más de la ciencia que del arte marítimo. Obtuvo el grado de oficial en 1873 y prestó servicios como instructor científico en la Academia entre 1875 y 1879. Se interesó ya desde esa época al problema de tratar de determinar la velocidad de la luz. Tras dos años de estudios en Europa, dejó la Armada en 1881. En 1883 aceptó una plaza de profesor de Física en la Case School of Applied Science de Cleveland y proyectó allí un interferómetro mejorado.
En 1892 Michelson, tras su paso como profesor de Física por la Clark University de Worcester, Massachusetts, desde 1889, fue Jefe del Departamento de Física de la nueva Universidad de Chicago, cargo en el que permaneció hasta que se jubiló en 1929.En 1907 se convirtió en el primer estadounidense que obtuvo el premio Nobel de Física. Entre 1923 y 1927 fue presidente de la Academia Nacionale de Ciencias. Murió el 9 de mayo de 1931 en Pasadena, California. La velocidad de la luz Primeras mediciones Ya en 1877, cuando aún era oficial de la Marina de los Estados Unidos, Michelson empezó a estudiar una mejora del método para medir la velocidad de luz basado en espejos rotativos, que había inventado Léon Foucault, utilizando instrumentos ópticos mejores y de mayor tamaño.
Llevó a cabo algunas mediciones preliminares con equipos imporvisados en gran medida en 1878, período en el que sus trabajos llamaron la atención de Simon Newcomb, director del Nautical Almanac Office, que ya estaba muy adelantado en sus proyectos de medición.Michelson publicó sus resultados de 299.910±50 km/s en 1879 antes de unirse al equipo de Newcomb, en Washington. Se inició de ese modo entre ambos una larga colaboración profesional y amistad. Simon Newcomb, una vez obtuvo financiación para su proyecto, llegó al valor de 299.860±30 km/s, prácticamente en el límite del intervalo propuesto por Michelson, quién siguió afinando su método y en 1883 publicó una medición de 299.853±60 km/s, más cercana a la de su mentor.
El monte Wilson, 1926 En 1906, E. B. Rosa y N. E. Dorsey del National Bureau of Standards, utilizaron un nuevo método eléctrico y obtuvieron un valor de la velocidad de la luz de 299.781±10 km/s.A pesar de que, como se demostró más adelante, este resultado estaba fuertemente condicionado por la inseguridad en las características de los materiales eléctricos de la época, esta medición inició una tendencia a la medición de valores a la baja. A partir de 1920, Michelson empezó a lanificar un medición definitiva desde el Observatorio de Monte Wilson, usando una línea de medida hasta la Lookout Mountain, una cima relevante en la cresta meridional del monte San Antonio ( Old Baldy), a unas 22 millas de distancia.
En 1922, el Coast and Geodetic Survey inició dos años de laboriosas mediciones de la línea de tierra usando cintas de acero invar, recién descubierto.Con la longitud de la línea de tierra determinada en 1924, las mediciones se llevaron a cabo en los dos años siguientes, obteniendo el valor publicado de 299.796±4 km/s. Esta famosa medición se vio perjudicada por diversos problemas, uno de los más importantes fue la oscuridad producida por el humo de los incendios forestales, que ocasionó que la imagen del espejo quedara desenfocada.
También es probable que la heroica labor del Geodetic Survey, con un error que se estima en menos de una millonésima, quedara comprometido por una descolocación de los puntos de referencia debido al terremoto de Santa Bárbara, California, entre el 29 de junio de 1925 (de una magnitud estimada de 6'3 en la escala de Richter).Michelson, Pease & Pearson, 1932 El periodo que siguió a 1927 produjo nuevas mediciones de la velocidad de la luz mediante nuevos dispositivos electro-ópticos, todas sustancialmente inferiores al valor de Michelson en 1926. Michelson se dedicó a realizar más mediciones, pero esta vez en un tubo de vacío para evitar la dificultad de interpretar imágenes influenciadas por los efectos atmosféricos.
En 1930 inició una colaboración con Francis G. Pease y Fred Pearson para llevar a cabo una medición en un tubo de 1,6 km en Pasadena, California.Michelson murió cuando sólo se habían realizado 36 de las 233 series de mediciones, ya que después el experimento se vio obstaculizado por la inestabilidad geológica y por problemas de condensación; se llegó al valor de 299.774±11 km/s, coherente con los valores electro-ópticos prevalentes, que se publicó póstumamente en 1935. Interferometría En 1887 colaboró con su colega Edward Williams Morley en el desarrollo del hoy famoso experimento de Michelson y Morley sobre el movimiento relativo esperado entre la Tierra y el éter, el hipotético medio en el que se suponía que viajase la luz, que llevó a resultados nulos.
Es prácticamente seguro que Albert Einstein era conocedor del trabajo; lo que ayudó mucho a aceptar la teoría de la relatividad.Michelson creó también un interferómetro para medir con gran precisión la longitud del metro basándose en las longitudes de onda de una de las líneas espectrales de un gas estableciendo así un patrón de medida universal. Enlaces externos Wikimedia Commons alberga contenido multimedia sobre Albert Abraham Michelson. Commons Albert Einstein Albert Einstein Einstein en 1921 Nacimiento Muerte Residencia 14 de marzo de 1879 Ulm, Wurtemberg 18 de abril de 1955 Princeton, Nueva Jersey Alemania, Italia, Suiza, EE. UU.
ciudadano del Imperio Alemán ( 1879-96, 1914-18) ciudadano de la República de Weimar (1919-33) Nacionalidad/es Suizo (1901-55) Estadounidense (1940-55) Física Oficina de Patentes Suiza Universidad de Zurich Universidad Carolina Instituciones Instituto Kaiser Wilhelm Universidad de Leiden Inst.
de Estudios Avanzados Escuela Politécnica Federal de Zúrich Alma máter Supervisor doctoral Alfred Kleiner Estudiantes Hans Tanner destacados Teoría general de la relatividad Campo/s Conocido por Teoría de la Relatividad Especial Movimiento browniano Efecto fotoeléctrico Premio Nobel de Física (1921) Premios destacados Medalla Copley (1925) Medalla Max Planck (1929) Mileva Mari Cónyuge Elsa Löwenthal (después Einstein) Firma Albert Einstein (14 de marzo de 1879 - 18 de abril de 1955) fue un físico alemán, nacionalizado suizo primero, posteriormente estadounidense.Es el científico más conocido e importante del siglo XX. [1] En 1905, siendo un joven físico desconocido, empleado en la Oficina de Patentes de Berna (Suiza), publicó su Teoría de la Relatividad Especial.
En ella incorporó, en un marco teórico simple y con base en postulados físicos sencillos, conceptos y fenómenos estudiados anteriormente por Henri Poincaré y Hendrik Lorentz.Probablemente, la ecuación de la física más conocida a nivel popular es la expresión matemática de la equivalencia masa-energía, E=mc², deducida por Einstein como una consecuencia lógica de esta teoría. Ese mismo año publicó otros trabajos que sentarían algunas de las bases de la física estadística y la mecánica cuántica. En 1915[2] presentó la Teoría General de la Relatividad, en la que reformuló por completo el concepto de gravedad.
Una de las consecuencias fue el surgimiento del estudio científico del origen y evolución del Universo por la rama de la física denominada cosmología.Muy poco después, Einstein se convirtió en un icono popular de la ciencia alcanzando fama mundial, un privilegio al alcance de muy pocos científicos. [1 ] Obtuvo el Premio Nobel de Física en 1921 por su explicación del efecto fotoeléctrico y sus numerosas contribuciones a la física teórica, y no por la Teoría de la Relatividad, pues el científico a quien se encomendó la tarea de evaluarla, no la entendió, y temieron correr el riesgo de que se demostrara errónea posteriormente.
[3] En esa época era aún considerada un tanto controvertida por parte de muchos científicos.
Contenido 1 Biografía 1.1 Madurez 2 Trayectoria científica 2.1 Los artículos de 1905 2.1.1 Movimiento browniano 2.1.2 Efecto fotoeléctrico 2.1.3 Relatividad especial 2.1.4 Equivalencia masa-energía 2.2 Relatividad general 2.3 Estadísticas de Bose-Einstein 2.4 La Teoría de Campo Unificada 3 Actividad política 4 Creencias 4.1 Religiosas 4.2 Éticas 5 Notas 6 Referencias 6.1 Bibliografía general 6.2 Einstein y la teoría de la relatividad 6.3 Material digital 7 Véase también 8 Enlaces externos 8.1 Enlaces en otras lenguas Biografía Tras graduarse, siendo el único de su promoción que no consiguió el grado de maestro, Einstein no pudo encontrar un trabajo en la Universidad, aparentemente, por la irritación que causaba entre sus profesores.
El padre de su compañero de clase Marcel Grossmann le ayudó a encontrar un trabajo en la Oficina Confederal de la Propiedad Intelectual de Berna, una oficina de patentes, en 1902, donde trabajó hasta 1909.Su personalidad le causó también problemas con el director de la Oficina, quien le enseñó a "expresarse correctamente". En esta época Einstein se refería con amor a su mujer Mileva como " una persona que es mi igual y tan fuerte e independiente como yo". Abram Joffe, en su biografía de Einstein, argumenta que durante este periodo fue ayudado en sus investigaciones por Mileva. Esto se contradice con otros biógrafos como Ronald W. Clark, quien afirma que Einstein y Mileva llevaban una relación distante que brindaba a Einstein la soledad necesaria para concentrarse en su trabajo.
En mayo de 1904, Einstein y Mileva tuvieron un hijo de nombre Hans Albert Einstein.Ese mismo año consiguió un trabajo permanente en la Oficina de Patentes. Poco después finalizó su doctorado presentando una tesis titulada Una nueva determinación de las dimensiones moleculares, que es un trabajo de 17 páginas que surgió de una conversación con Michele Besso mientras se tomaban una taza de té; cuando Einstein iba a echarle azúcar al té, preguntó a Besso: «¿Crees que el cálculo de las dimensiones de las moléculas de azúcar podría ser una buena tesis de doctorado?». En 1905 escribió cuatro artículos fundamentales sobre la física de pequeña y gran escala.