text
stringlengths
35
3.53k
WIKIGRAMMATA La Wikipedia offLine Física Grammata SL WikiGrammata - La Wikipedia OffLine Física — v12.08 Fecha de Creación: Diciembre de 2008 Fecha Actualización Wikipedia: Diciembre 2008 Número de Artículos: 1.930 www.grammata.es admin@grammata.es 1-forma Una 1-forma o uno-forma o covector, intuitivamente es...un objeto matemático definido sobre un cierto dominio (o de una variedad diferenciable) que "operado" con un campo vectorial da lugar un campo escalar o función definida sobre el mismo dominio. Es decir: Donde Vecn() denota el conjunto de funciones vectoriales con derivadas parciales continuas hasta orden k definidas sobre , es decir, es un conjunto formado por campos vectoriales.
Una 1-forma o forma uno es un caso particular de n-forma.Contenido 1 Ejemplos de 1-formas en física 2 Ejemplos de 1-formas en matemáticas 3 Integrabilidad de 1-formas: diferenciales exactas 3.1 Diferenciales inexactas en física 4 Véase también Ejemplos de 1-formas en física En mecánica newtoniana diversas magnitudes funcionan como 1-formas. Por ejemplo el llamado, impropiamente, "trabajo infinitesimal" a lo largo de la trayectoria de una partícula: Es una 1-forma, que aplicada a un vector velocidad da la potencia realizada por la fuerza: La integral a lo largo del tiempo de la potencia, que es un escalar, da el trabajo finito realizado por la fuerza.
Cuando la 1-forma trabajo infinitesimal debido a la naturaleza de las fuerzas es una diferencial exacta, se dice que el conjunto de fuerzas forma un campo conservativo.En termodinámica el llamado impropiamente "calor infinitesimal" es otra 1-forma, normalmente no exacta, que es expresable en diferentes tipos de coordenadas: Donde Cv,Cp son las capacidades caloríficas bajo volumen y bajo presión constantes respectivamente y dS,dT son 1-formas exactas asociadas a las variables de estado, temperatura y entropía respectivamente. Un factor integrante es una función multiplicativa que convierte a una 1-forma no exacta en exacta.
Así un factor integrante para la magnitud "calor infinitesimal" es el inverso de la temperatura, en ese caso la 1-forma resultante puede derivarse de la variable de estado llamada entropía En electrodinámica clásica el potencial vector puede ser considerado una 1-forma sobre un espacio-tiempo de cuatro dimensiones del que se puede derivar todas las componentes del campo electromagnético.Esta 1-forma nunca es exacta a menos que el campo electromagnético sea nulo. Un campo vectorial que derive de un potencial admite una representación como 1-forma exacta. Ejemplos de 1-formas en matemáticas La diferencial total de una función de varias variables puede ser tratada rigurosamente como una 1-forma.
Así si se tiene una función de varias variables f(x,y,z) diferenciable, su diferencial total es una 1-forma exacta: Por ser la anterior una 1-forma exacta, también es también una 1-forma cerrada, lo cual implica que: Integrabilidad de 1-formas: diferenciales exactas Una 1-forma F, se dice exacta si existe una función g tal que: Se puede probar que una condición necesaria y suficiente para que una 1-forma sea exacta, alrededor de algún punto, de acuerdo con el teorema de Poincaré es que exista algún punto en el que se cumpla que: Cuando la condición anterior se satisface en algún punto entonces la 1-forma es localmente exacta en ese punto, es decir, existe una pequeña región alrededor del punto en el que la 1-forma es exacta.
Diferenciales inexactas en física Obviamente no toda 1-forma es exacta, un ejemplo físico interesante lo constituye el calor o el trabajo que aparecen en la forma diferencial de la energía interna tal como suele usarse para formular, el primer principio de la termodinámica: Obviamente esta diferencial de la energía interna sí es una 1-forma exacta puesto que la energía interna es una variable de estado.Sin embargo, ni el calor, ni el trabajo son 1-formas exactas. Para el calor tenemos: En la anterior ecuación si la derivada de la temperatura respecto al volumen fuera nula significaría que el cuerpo tiene una tasa de dilatación adiabática infinita, lo cual es absurdo.
Para el trabajo tenemos que por las relaciones de Maxwell, el trabajo no es una 1-forma exacta a menos que el coeficiente de dilatación adiabática (S) sea cero, ya que el trabajo sólo puede ser una diferencial exacta en un sistema termodinámico sí y sólo sí: Véase también n-forma 2dF Galaxy Redshift Survey Interpretación de la información obtenida con el 2dFGRS En astronomía, el 2dF Galaxy Redshift Survey (Sondeo de corrimiento al rojo de galaxias en un campo de 2 grados), 2dF o 2dFGRS es un sondeo de corrimiento al rojo de galaxias llevado a cabo por el Observatorio Anglo-Australiano (AAO) con el Telescopio Anglo-Australiano de 3,9m entre 1997 y el 11 de abril del 2002.
[1] Los datos de este sondeo fueron publicados el 30 de junio de 2003.Ésta inspección reveló la estructura a gran escala en una sección del Universo local. En la actualidad (enero de 2007) es el segundo sondeo de corrimiento al rojo más grande después del Sloan Digital Sky Survey, que comenzó en el 2000. Steve Maddox y John Peacock estuvieron a cargo del proyecto. Contenido 1 Descripción 2 Resultados del sondeo 3 Referencias 4 Enlaces externos Descripción El 2dF cubrió un área de unos 1500 grados cuadrados, combinando zonas cercanas a los dos polos galácticos norte y sur. [2] El nombre se deriva del hecho de que el instrumento utilizado cubre un área de aproximadamente 2 grados cuadrados.
Las áreas seleccionadas para la observación fueron previamente exploradas por el proyecto APM Galaxy Survey (en el que también trabajó Steve Maddox).[2] Las regiones inspeccionadas cubren un poco más de 75 grados de ascensión recta en ambas bandas. La declinación de la banda polar norte fue de unos 7,5 grados aproximadamente mientras que la declinación de la banda polar sur fue de 15 grados aproximadamente. También se observaron cientos de campos aislados de 2 grados cuadrados cerca de la banda polar sur (véase ésta ilustración, donde los círculos negros representan los campos observados, y la malla roja representa la observación previa del proyecto APM).
En total, se obtuvo la fotometría para 382.323 objetos, también se obtuvieron espectros de 245.591 objetos, de los cuales 232.155 eran de galaxias (221.414 de ellos con buena calidad), 12.311 son de estrellas, y 125 pertenecen a quasares.[3] El sondeo requirió de 272 noches de observación, repartidas a lo largo de 5 años. El sondeo se realizó con el Telescopio Anglo-Australiano de 4 metros, con el instrumento "2dF" instalado en el foco primario, permitiendo la observación de un campo de 2 grados en cada apuntado. El instrumento dispone de un espectrógrafo equipado con dos bancos de 200 fibras ópticas cada uno, permitiendo la medida simultánea de 400 espectros.
El magnitud aparente límite del sondeo es de 19,5, cubriendo objetos con un corrimiento al rojo en su mayor parte de menos de z = 0,3 y una media de corrimiento al rojo de 0,11.El volumen del Universo cubierto por el sondeo es de aproximadamente 108 h-1 Mpc3, donde h se corresponde al valor de la constante de Hubble, H0, dividido por 100. H0 es aproximadamente 70 km/s/Mpc. El mayor corrimiento al rojo observado corresponde a una distancia de 600 h-1 Mpc. Resultados del sondeo Los resultados principales obtenidos por el 2dF en el campo de la cosmología son: Las medidas del parámetro de densidad de la materia no relativista (materia bariónica más materia oscura más neutrinos masivos).
La detección de oscilaciones acústicas de bariones y, como consecuencia de esto, la relación entre la densidad de materia bariónica y materia oscura.Establecimiento de los límites de la contribución de los neutrinos masivos a la materia oscura, acotando la suma de las masas de las tres familias de neutrinos a 1,8 eV. Todos estos resultados están de acuerdo con las medidas de otros experimentos (principalmente con los del WMAP), que confirman el modelo cosmológico estándar. El sondeo 2dF también nos da una visión única de nuestro entorno cósmico local. Muchos supercúmulos sobresalen, como la Gran Muralla Sloan, la mayor estructura conocida en el universo hasta la fecha. Referencias 1.
Situación final de las observaciones del sondeo Final Status of Survey Observations (en inglés) 2. a b Introducción al 2dFGRS - "2dFGRS An Introduction" (en inglés) 3.Resumen de estadísticas del 2dFGRS - 2dFGRS Summary Statistics (en inglés) Enlaces externos Sitio oficial del 2dF Galaxy Redshift Survey . The 2dF Galaxy Redshift Survey: spectra and redshifts artículo de 2001 de la Royal Astronomical Society describiendo el sondeo. Sitio oficial del sistema instrumental del Campo de Dos Grados. Aage Niels Bohr Aage Niels Bohr (Copenhague, Dinamarca 19 de junio, de 1922) es el hijo de Margrethe y Niels Bohr. Creció en contacto con grandes físicos como Wolfgang Pauli y Werner Heisenberg, se convirtió en un notable físico nuclear que ganó el Premio Nobel de Física en 1975.
En 1946 ingresó al Instituto de Física Teórica Niels Bohr de la Universidad de Copenhague, siendo el director del mismo de 1963 a 1970.En 1948 Bohr trabajó en un monográfico con Ben Mottelson y Leo James Rainwater en Copenhague para resumir los conocimientos existentes de la estructura nuclear. El primer volumen, Movimiento de una Sola Partícula, apareció en 1969, y el segundo volumen, Deformaciones nucleares, en 1975.
Su trabajo en este proyecto y su contribución a la teoría nuclear les llevó a ganar el premio Nobel de Física en 1975, por el descubrimiento de la conexión entre el movimiento colectivo y el movimiento de las partículas en el núcleo atómico, y el desarrollo de la teoría de la estructura de los núcleos atómicos en función de esta conexión.Enlaces externos Biografia (en inglés) Aage Niels Bohr Aage Niels Bohr - Autobiografía (en inglés) Abamperio El abampere o abamperio (abreviado aA) o biot (abreviado bi) es la unidad de corriente eléctrica del Sistema Cegesimal de Unidades (centímetro - gramo - segundo), equivalente a 10 amperios en el sistema absoluto metro kilogramo - segundo.
[1] Se define como la magnitud de la corriente que induce un campo magnético tal que ejerce una fuerza de 2 dinas en el centro de un círculo conductor de 1 cm de radio.[2] El abamperio centímetro cuadrado es una unidad derivada de la anterior. Es la unidad de momento magnético en el Sistema Cegesimal. Referencias 1. Full table converter en AllMeasures.com 2. Abampere: Online Medical Dictionary, The CancerWEB Project.
Abdus Salam Abdus Salam (en Urdu: ) Nacimiento Muerte Nacionalidad/es Alma máter Conocido por Premios destacados 29 de enero de 1926 (1979 años) Santokdas, Sahiwal, Punyab, India Británica 21 de noviembre de 1996 Oxford, Reino Unido Pakistán Universidad de Cambridge Modelo electrodébil Premio Nobel de Física (1979) Abdus Salam (29 de enero, 1926 en Santokdas, Sahiwal en Punjab – 21 de noviembre, 1996 en Oxford, Inglaterra) físico teórico de Pakistán que recibió el Premio Nobel de Física en 1979 por su trabajo en el Modelo electrodébil, una síntesis matemática y conceptual del electromagnetismo y la fuerza nuclear débil, hasta ahora el último paso que se ha dado para llegar a la unificación de todas las fuerzas de la naturaleza.
Contenido 1 Biografía 2 Investigaciones y premios 3 Referencias 4 Véase también 5 Enlaces externos Biografía Nació el 29 de enero de 1926 en Jhang Maghiana, India (hoy Pakistán).Cursó estudios en el Colegio del Gobierno en Lahore y se doctoró en matemáticas y física en 1952 por la Universidad de Cambridge. Abdus Salam fue un estudiante muy brillante. Desde 1956, fue Profesor de Física Teórica en el Imperial College London, que es una prestigiosa institución británica de educación que se centra en estudios relacionados con la ciencia, la ingeniería y la medicina, complementada por una escuela de negocios. Fue nombrado director del Centro Internacional de Física Teórica de Trieste, Italia, cuando se fundó en 1964.
Abdus Salam murió a los 70 años, el 21 de noviembre de 1996, en Oxford, a causa del Parkinson.Fue sepultado en Rabwah (Chenab Nagar), Punjab, Pakistán. El profesor Abdus Salam fue un devoto Ahmadi (musulmán). Debido a la presión política de los Ahmadis en Pakistán, Abdus Salam no fue homenajeado oficialmente por el Gobierno de Pakistán, a pesar de ser el primer Premio Nobel del país. Investigaciones y premios Recibió el Premio Nobel de Física en 1979 por su trabajo en el Modelo electrodébil la cual es una teoría física que unifica la interacción débil y el electromagnetismo, dos de las cuatro interacciones fundamentales de la naturaleza.
A su vez, este modelo se halla incluido en la Teoría de Gran Unificación (GUT), que une la interacción electrodébil con la interacción nuclear fuerte.Abdus Salam, Sheldon Lee Glashow y Steven Weinberg llegaron a la misma teoría independientemente y compartieron el Premio Nobel. La validez de la teoría fue confirmada experimentalmente por los trabajos de supersicotrón de protones en el CERN en Ginebra, y el descubrimiento de los Bosones W y Z, que son las partículas mediadoras de la interacción nuclear débil, una de las cuatro interacciones fundamentales de la naturaleza. Son tres tipos de partículas fundamentales muy masivas que se encargan en general de cambiar el sabor de otras partículas, los leptones y los quarks.
Referencias Wikipedia en inglés [1] Véase también Wikiquote Wikiquote alberga frases célebres de Abdus Salam.Premio Nobel de Física Modelo electrodébil Teoría de la gran unificación Enlaces externos The Nobel Prize in Physics 1979 [2] The Abdus Salam International Centre for Theoretical Physics [3] Personalia at the ICTP Library [4] TWAS, formerly Third World Academy of Sciences [5] Abdus Salam [6] Abdus Salam CV [7] / [8] International Nathiagali Summer College [9] COMSATS [10] National Centre For Physics NCP[11] El secularismo devoto de Steven Weinberg Aberración de la luz Se denomina aberración de la luz o aberración de Bradley a la diferencia entre la posición observada de una estrella y su posición real, debido a la combinación de la velocidad del observador y la velocidad finita de la luz.
Retrato de James Bradley Contenido 1 Descubrimiento 2 Concepto 3 El concepto en óptica 4 Enlaces externos Descubrimiento En 1725, James Bradley, entonces profesor Saviliano de Astronomía en la Universidad de Oxford, intentó medir la distancia a una estrella observando su orientación en dos diferentes épocas del año.La posición de la Tierra cambiaba mientras orbitaba alrededor del Sol y, por consiguiente, proporcionaba una gran línea de base para la triangulación de la estrella. Para su sorpresa, encontró que las estrellas fijas mostraban un movimiento sistemático aparente, relacionado con la dirección del movimiento de la Tierra en su órbita y no dependía, como se había anticipado, de la posición de la Tierra en el espacio.
Concepto El descubrimiento de Bradley, la llamada aberración estelar, es análoga a la situación que se produce cuando caen gotas de lluvia.Una gota de lluvia, aunque viaje verticalmente con respecto a un observador en reposo en la tierra, aparentemente cambiará su ángulo de incidencia cuando el observador está en movimiento. De este modo, un modelo corpuscular de la luz podría explicar la aberración estelar muy fácilmente. Por otra parte, la teoría ondulatoria también brinda una explicación satisfactoria, siempre que el éter permanezca totalmente quieto cuando la Tierra lo surca.
La diferencia máxima entre la posición observada y la posición real de un astro alcanza un máximo de 20.47 segundos de arco denominándose constante de aberración.El fenómeno de la aberración de la luz se utiliza para medir por trigonometría la distancia a la que se encuentra una estrella cercana, denominándose entonces paralaje anual, y definiéndose con esa base la unidad de distancia interestelar: el pársec; definido como la distancia a la que está un astro que presenta un paralaje anual de un segundo de arco, y equivale a 3'2616 años luz. El concepto en óptica Por aberración también se conoce al conjunto de defectos ópticos que pueden presentar un sistema óptico.
Puede ser cromática (dependiente de la longitud de onda) o acromática.Entre las aberraciones más comunes están la aberración esférica, el coma y el astigmatismo. Enlaces externos Wikimedia Commons alberga contenido multimedia sobre Aberración de la luz.Commons Aberración esférica Mecanismo de la aberración esférica La aberración esférica es un defecto de los espejos y las lentes en el que los rayos de luz que inciden paralelamente al eje óptico, aunque a cierta distancia de éste, son llevados a un foco diferente que los rayos próximos al mismo; La aberración esférica es una aberración de tipo monocromático de tercer orden que afecta de manera diferente a cada longitud de onda.
Este efecto es proporcional a la cuarta potencia del diámetro de la lente o espejo e inversamente proporcional al cubo de la longitud focal siendo mucho más pronunciado en sistemas ópticos de corta focal, como en las lentes de un microscopio.En los telescopios ópticos antiguos se utilizaban instrumentos de larga focal para reducir el efecto de la aberración esférica. Véase también Aberración de apertura. Enlaces externos Wikcionario Wikcionario tiene definiciones para aberración esférica. Aberración longitudinal La aberración longitudinal es, en óptica, la distancia a lo largo del eje óptico desde el foco de los rayos paraxiales hasta el punto en que los rayos provenientes de los bordes exteriores de las lentes o superficies reflectantes intersectan dicho eje.
En la aberración de cromatismo, la distancia, medida sobre el eje óptico, entre los focos de dos colores patrón.Absorción (radiación electromagnética) En la naturaleza, los colores que conocemos son todos reflejados por la luz blanca del sol, así un objeto que es golpeado por un haz de luz absorbe todos los colores y refleja el color del espectro (arco iris) correspondiente a la onda emitida por el pigmento que posee en su superficie. Analizando este fenómeno podríamos deducir que los objetos son de todos los colores, menos del color que reflejan. Los colores que muestra el espectro (arco iris) son la combinación de los colores primarios, que no incluyen el blanco ni el negro, pues éstos se consideran valores.
El blanco estaría indicando presencia de luz y el negro ausencia de luz.Absorción neutrónica Se ha sugerido que este artículo o sección sea fusionado con Captura neutrónica (ver la discusión al respecto). Una vez que hayas realizado la fusión de artículos, pide la fusión de historiales en WP:TAB/F. El núcleo de los átomos está compuesto por neutrones y protones. Si un núcleo es bombardeado con neutrones, posee una probabilidad determinada de incorporarlo a su composición. Esa probabilidad está dada por una cantidad llamada sección eficaz de absorción. Cuando un isótopo con n neutrones y z protones incorpora de esta forma un nuevo neutrón, se convierte en un isótopo con n+1 neutrones y z protones.
Activación neutrónica Cuando el isótopo resultante es radiactivo el fenómeno se denomina Activación Neutrónica Este efecto hace que aparezcan una serie de isótopos radiactivos en lugares donde se producen neutrones, como pueden ser las centrales nucleares, ya que en muchas ocasiones los isótopos que han sido activados, resultan ser inestables.Un ejemplo típico de esta activación neutrónica es el Cobalto-60, producido por el hierro que existe en los componentes de un reactor nuclear, y que es utilizado de forma habitual en las Cobaltoterapias o Curieterapias para el tratamiento del cáncer. Transmutación neutrónica Cuando el isótopo radiactivo activado decae y se desintegra puede dar lugar a un isótopo hijo de un elemento diferente.
Este fenómeno se conoce como Transmutación Neutrónica .Acción (física) En física, la acción es la magnitud que expresa el producto de la energía implicada en un proceso por el tiempo que dura este proceso. Se puede diferenciar según el lapso de tiempo considerado en acción instantánea, acción promedio, etc. En el Sistema Internacional de Unidades su unidad es el julio · segundo. La acción es una magnitud escalar.
Contenido 1 Significado físico 2 Unidades de acción 2.1 Sistema Internacional de Unidades (SI) 2.2 Sistema sexagesimal 2.3 Sistema natural 3 Véase también Significado físico En mecánica clásica la acción es una magnitud física que no es directamente medible, aunque puede ser calculada a partir de cantidades medibles.Entre otras cosas eso significa que no existe una escala absoluta de la acción, ni puede definirse sin ambigüedad un cero u origen de la magnitud acción.
La diferencia de acción entre dos puntos A y B de posible trayectoria se define en mecánica clásica como la siguiente integral del lagrangiano: En mecánica relativista la acción de una partícula libre es proporcional a la longitud recorrida por la partícula a lo largo de una geodésica.Para una partícula libre la acción resulta igual a: En mecánica cuántica no relativista la acción está cuantizada siendo la unidad elemental "h", la constante de Planck. Resulta ser proporcional a la fase compleja de la función de ondas de una partícula, tal como sugiere el límite clásico de la ecuación de Schrödinger.
Para una partícula aislada la función de onda está relacionada con la acción mediante: Unidades de acción Sistema Internacional de Unidades (SI) julio por segundo (J·s) Sistema sexagesimal Sistema natural Véase también Constante de Planck Aceleración En mecánica, se define como aceleración a la magnitud vectorial que nos indica el ritmo o tasa con que aumenta o disminuye la velocidad de un móvil en función del tiempo.Sus dimensiones son longitud/tiempo² y como unidades, según el sistema internacional, se utiliza el m/s². Un objeto no puede seguir una trayectoria curva a menos que esté sufriendo una cierta aceleración, ya que si ésta no existiese su movimiento sería rectilíneo.
Asimismo, el que un objeto incremente o disminuya su velocidad implica necesariamente la presencia de una aceleración (positiva si acelera, negativa si frena).No debe confundirse la aceleración con la velocidad, puesto que, aunque son conceptos estrechamente relacionados, son distintos: Mientras la velocidad indica la variación de la posición de un cuerpo respecto al tiempo, la aceleración nos muestra la variación de dicha velocidad. Además, no han de compartir forzosamente ni dirección ni sentido. Algunos ejemplos del concepto de aceleración serían: La llamada aceleración de la gravedad de la tierra, la aceleración de la fuerza del campo gravitatorio cuyo valor en la superficie de la Tierra es, aproximadamente, de 9,8 m/s².
Esto quiere decir que si se dejara caer libremente un objeto, aumentaría su velocidad de caída, aproximadamente, 9,8 m/s por cada segundo que pasara siempre que omitamos la resistencia aerodinámica del aíre.El objeto caería, por tanto, cada vez más rápido, respondiendo dicha velocidad a la ecuación v = a·t = G·t = 9,8·t. O una maniobra de frenada de un vehículo, que se correspondería con una aceleración de signo negativo, o desaceleración, al oponerse a la velocidad que ya tenía el vehículo. Si el vehículo adquiriera más velocidad, a dicho efecto se le llamaría aceleración y, en este caso, sería de signo positivo.
Contenido 1 Aceleración media e instantánea 2 Componentes intrínsecas de la aceleración: aceleraciones tangencial y normal 2.1 Movimiento Circular uniforme 2.2 Movimiento rectilíneo acelerado 3 Carácter absoluto de la aceleración 4 Unidades 5 Medición de la aceleración 6 Referencia 6.1 Bibliografía 7 Véase también 8 Enlaces externos Aceleración media e instantánea Aceleración instantánea es representada como la pendiente de la recta tangente de la curva de representación velocidad-tiempo.Se define la aceleración media como la relación entre la variación de velocidad (v) de un objeto en un tiempo dado (t ). Donde a es aceleración, v la velocidad final en el instante t y v0 la velocidad inicial en el instante t0.
La aceleración instantánea es el cambio en la velocidad de un objeto que se produce en un intervalo de tiempo infinitamente pequeño, es decir la derivada de la velocidad (instantánea) respecto al tiempo en un instante dado: Puesto que la velocidad instantánea v a su vez es la derivada del vector de posición r respecto al tiempo, se tiene que la aceleración vectorial es la derivada segunda respecto de la variable temporal: De igual forma se puede definir la velocidad instantánea a partir de la aceleración como: O incluso también, la velocidad puede entenderse como la integral de la aceleración respecto el tiempo, es de notar que la integración puede ser definida o indefinida: , Componentes intrínsecas de la aceleración: aceleraciones tangencial y normal Existe una descomposición geométrica útil del vector de aceleración de una partícula, en dos componentes perpendiculares: la aceleración tangencial y la aceleración normal.
Una forma no técnica y sencilla de entender esta descomposición es realizar una analogía con un coche que recorre una carretera con curvas: la aceleración tangencial depende de lo que el conductor pise el acelerador o el freno.La aceleración normal depende de lo que el conductor gire el volante. Así pues, la aceleración tangencial es la que incrementa o disminuye la velocidad del coche y la aceleración normal es la responsable de que el coche gire. La primera da cuenta de cuanto varía el módulo del vector velocidad o celeridad. La aceleración normal por el contrario da cuenta de la tasa de cambio de la dirección velocidad: Donde es el vector unitario y tangente a la trayectoria del mismo sentido que la velocidad.
Usando las fórmulas de geometría diferencial de curvas se llega a que la expresión anterior es igual a: Donde at es la aceleración tangencial, an es la aceleración normal y los vectores que aparecen en la anterior expresión se relacionan con los vectores del triedro de Frênet que aparece en la geometría diferencial de curvas del siguiente modo: es el vector unitario tangente a la curva.es el vector normal (unitario) de la curva. es el vector velocidad angular que es siempre paralelo al vector binormal de la curva. Movimiento Circular uniforme Artículo principal: Aceleración centrífuga Un movimiento circular uniforme es aquél en el que la partícula recorre una trayectoria circular de radio R con celeridad constante, es decir, que la distancia recorrida en cada intervalo de tiempo igual es la misma.
Para ese tipo de movimiento el vector de velocidad mantiene su módulo y va variando la dirección siguiendo una trayectoria circular.Si se aplican las fórmulas anteriores, se tiene que la aceleración tangencial es nula y la aceleración normal es constante: a esta aceleración normal se la llama "aceleración centrípeta". En este tipo de movimiento la aceleración se invierte en modificar la trayectoria del objeto y no en modificar su velocidad. Movimiento rectilíneo acelerado Artículo principal: Movimiento rectilíneo uniformemente acelerado En mecánica el movimiento partiendo del reposo bajo una fuerza constante se conoce como movimiento rectilíneo uniformemente acelerado.
Ya que de acuerdo con la mecánica clásica la trayectoria de una partícula bajo una fuerza constante es rectilínea y con aceleración uniforme en toda la trayectoria.Si se aplican las fórmulas anteriores se tiene que en este movimiento sólo existe aceleración tangencial: Carácter absoluto de la aceleración A diferencia de lo que sucede con la velocidad que es un concepto relativo y dependiente del observador, la aceleración es absoluta y objetivamente determinable sea cual sea el estado de movimiento del observador. Tanto el Principio de relatividad de Galileo como el principio de relatividad de Einstein afirman que un observador aislado sensorialmente del exterior del laboratorio, no podrá saber si se está moviendo respecto a otro observador exterior.
Un ejemplo de la aplicación de este principio es: cualquier persona sobre la Tierra siempre se está moviendo, ya que rota sobre sí misma y alrededor del Sol, sin embargo no percibimos esta velocidad y tenemos la sensación de estar quietos.En cambio un observador acelerado podrá detectar su aceleración por diversos medios: De acuerdo con la mecánica clásica midiendo la relación entre las fuerzas reales y las aceleraciones observadas. De acuerdo con la mecánica relativista y la electrodinámica clásica comprobando si una carga eléctrica en reposo respecto al observador emite o no aceleración, de hecho en ese caso la radiación emitida es proporcional al cuadrado de la aceleración.
De acuerdo con la mecánica cuántica midiendo la temperatura del fondo de vacío, y determinando la aceleración de acuerdo con el efecto Unruh.Unidades Las unidades de la aceleración son: longitud/tiempo² (en unidades del sistema internacional se usa m/s². En el caso de la aceleración gravitacional se suele representar mediante una g en vez de una a, siendo gn o g0 la aceleración estándar de caída libre de los cuerpos en la Tierra, cuyo valor es 9,80665 m/s², causada por el campo gravitatorio de nuestro planeta al nivel del mar a una latitud de 45,5°. Medición de la aceleración La medida de la aceleración puede hacerse con un sistema de adquisición de datos y un simple acelerómetro.
Los acelerómetros electrónicos son fabricados para medir la aceleración en una, dos o tres direcciones.Cuentan con dos elementos conductivos, separados por un material que varia su conductividad en función de las medidas, que a su vez serán relativas a la aceleración del conjunto. Referencia Bibliografía Serway, Raymond A.; Jewett, John W. (2004). Physics for Scientists and Engineers, 6th ed., Brooks/Cole. . Tipler, Paul (2004). Physics for Scientists and Engineers: Mechanics, Oscillations and Waves, Thermodynamics, 5th ed., W. H. Freeman. . Véase también Cinemática Velocidad Derivada Enlaces externos Wikcionario Wikcionario tiene definiciones para aceleración.
Chile Científico: Análisis del Movimiento Circular Aceleración de la expansión del Universo Aceleración de la expansión del Universo y Universo en expansión son términos con los que se designa la idea de que el Universo se expande a una velocidad cada vez mayor.A fines de los años 1990, unas observaciones de supernovas tipo A arrojaron el resultado inesperado de que la expansión del Universo parece ir acelerándose. Estas observaciones parecen más firmes a la luz de nuevos datos. [1] De ser correcta esta teoría, el resultado último de esta tendencia sería la imposibilidad de seguir viendo cualquier otra galaxia. Esta nueva teoría del fin del Universo ha recibido el nombre de Gran Desgarramiento o, en inglés, Big Rip.
Puesto que la energía causante de la aceleración del espacio-tiempo no ha podido ser observada en forma directa, se ha dado en llamarla energía oscura.Dos candidatos teóricos que podrían hacer las veces de esta energía son una constante cosmológica no igual a cero (que pudo haber causado la inflación cósmica) y una energía repulsiva más general llamada quintaesencia. La observación de un Universo en aceleración parece plantear grandes problemas para la Inteligencia eterna de Dyson.
Esta teoría depende de un Universo en desaceleración, lo que durante muchos años fue el modelo dominante en la cosmología, ya que, a falta de observaciones que probaran la existencia de la energía oscura, se creía que la atracción gravitatoria de la materia del Universo sobre la misma materia actuaría para frenar la expansión.
Aceleración de la expansión del Universo La observación de que, retrocediendo en el tiempo 5×109 años, el Universo ha entrado desde un período de desaceleración de su expansión a uno de aceleración, surge como una predicción al aplicar el mecanismo de división y elongación de fotones en cascada (Photon-splitting and elongation-cascade, PSEC), propuesto por Alfred Bennun (Rutgers University), no sólo al período de inflación cósmica (Alan Guth), sino también al de su subsiguiente expansión.
Este mecanismo de expansión exponencial es asimilable a la constante cosmológica de Einstein, porque propone que la energía primordial se puede describir como una radiación que precede a la formación de materia, contrarrestando la atracción gravitatoria de la misma por elongación de longitud de onda, que persiste en el "fósil" observable como radiación cósmica de fondo (Cosmic Background Radiation, CMB).Esta caracterización conceptual, atribuyendo a la energía radiante una función de onda, permite su descripción como paquetes de energía (quanta o fotones) de ultra-rápida frecuencia (v) y ultra-pequeña longitud de onda (), correspondientes con el límite de energía de Planck (1022 MeV).
Usando el equivalente de masa crítica sugerido por la NASA , 6 protones por metro cúbico (6 x masa en reposo del protón 9,38379×102 MeV), el valor resultante —5,630274×103— se multiplica por el volumen del Universo en la actualidad —13,7×109 años luz, o 9,1×1078 metros cúbicos— para obtener el total de la energía presente al inicio de la inflación —5,124×1082 MeV—.Por división de este número por la energía de Planck se obtiene el número inicial de fotones: 5,124×1060.
Estos trenes de fotones serían inicialmente confinados dentro de topología no calculable pero que se abre creando un espacio tridimensional de radio igual al radio de Fermi, 10–13 cm, y por lo tanto evitando la naturaleza puntual y adimensional de una singularidad.En simulación, desde el inicio de inflación (tiempo de Planck: 10–44 segundos) hasta su final (10–33 segundos), el tiempo se escaló como un incremento logarítmico y por subdivisión se obtuvo una secuencia de 66 lapsos con progresión de fechas respectivas, cada una duplicando la extensión temporal del período anterior.
En cada período, la energía per quanta se redujo a la mitad con respecto al período anterior, como si fuera una cascada de división de fotones reiterada 66 veces, o sea de 1×266 divisiones de los fotones iniciales pero cuyo incremento inicial del radio del Universo se expresa en base 4 y exponencial 66, (1×2×2)66, ya que en cada división o partición de los fotones simultáneamente, no sólo se dobla su número, sino también la amplitud de su longitud de onda.Ambos procesos no están limitados por la velocidad de la propagación de la luz en el espacio, porque implican transiciones en la amplitud del espacio-tiempo mismo. La contribución al crecimiento cósmico por despliegue de la luz en el mismo es despreciable durante la inflación.
Sin embargo, ésta se vuelve muy importante durante la expansión mientras la elongación de la longitud de onda de CMB se asocia en función temporal no ya a dichas mínimas fracciones de segundos, sino a muchos años luz.Escalando desde el Universo de 90 años luz de radio (r) al final de la inflación hasta 12,08×109 años luz (que es menor que el radio al presente) se obtiene una exponencial 27 para representar la secuencia de divisiones de fotones en base dos: 90×227 = 12,08×109 años luz. Este procedimiento para calcular la cascada de división de fotones durante la expansión cósmica podría no ser el adecuado.
Otra aproximación es verificar este valor iterativo de exponencial 27 obtenido para las secuencias de divisiones en la era de expansión usando el valor energético al presente de CMB —2,71 K o 2,3×10–10 MeV— multiplicado por 227 para obtener el valor energético de CMB al final de la inflación: 3,087×10–2 MeV.El ajustado de este número por simulación posiblemente requiere diferenciar la contribución de la expansión debida a la luz, o de la debida a la división fotónica usando parámetros adicionales como los relacionados a la formación de materia. Como el fotón carece de masa, el origen de ésta, vinculada a una radiación primogénita requiere postular un mecanismo para su generación.
Este podría ser que en función de un momento angular, éste manifiesta equivalencia de masa.Transferencia de momento angular ocurriría durante la desaceleración de un cosmos inicialmente rotacional, y/o porque los trenes de fotones (polarizados transversalmente) viajarían en una dirección del espacio-tiempo que le conferiría momento angular. Véase también Energía oscura Ley de Hubble Big Rip Destino último del Universo Referencias 1. Bär, Nora (martes 6 de noviembre de 2007). El destino del universo es disgregarse (en español). La Nación. Consultado el 8 de junio de 2008.
Aceleración relativa La aceleración relativa hace referencia a la relación entre la aceleración de un punto móvil P medida desde dos sistemas de referencia: uno sistema SR1, llamado habitualmente sistema relativo, que describe algún tipo de movimiento respecto al otro sistema de referencia SR2, que se encuentra en reposo, llamado comúnmente sistema absoluto.El movimiento de un sistema de referencia respecto al otro puede ser, o bien de traslación, o bien de rotación. Aceleración relativa en mecánica clásica Las ecuaciones que relacionan la aceleración absoluta y la aceleración relativa, son más complicadas que las que relacionan la velocidad relativa y la velocidad absoluta.
El concepto de aceleración relativa es muy usado en la mecánica del sólido rígido.Por ejemplo si consideramos dos puntos O y P materiales en movimiento, tales que A está fijo respecto al sistema de referencia relativo (SR1) situado sobre un sólido rígido que gira y se traslada, sus velocidades y aceleraciones relativas están relacionadas mediante: (1) (2) Donde: , son las velocidades de los puntos materiales O y P medidas por un observador inercial en el instante de tiempo t. , es el vector posición que apunta desde el punto O a punto P, que en general variará con el tiempo.
, son las aceleraciones de los puntos materiales O y P medidas por un observador inercial en el instante de tiempo t. , es la aceleración relativa de P respecto a O. , es la aceleración complementaria de Coriolis., es la aceleración del punto material P medida desde un bservador solidario con el sistema de referencia en movimiento en el instante de tiempo t. Véase también Aceleración Cinemática Acelerador de partículas circular En esta clase de aceleradores de partículas, estas viajan múltiples veces a lo largo de un camino circular. Existen dos variantes de aceleradores circulares: los ciclotrones (que constituyen el primer modelo de acelerador construido) y los más modernos sincrotrones, con los cuales se alcanzan energías en el rango de los TeV - inaccesibles a los aceleradores lineales.
Acelerador lineal de electrones Un acelerador lineal de electrones (ALE) es un aparato electrónico complejo que "dispara" (es decir, acelera) electrones y también fotones de alta energía, que se utiliza fundamentalmente para el tratamiento del cáncer, en los servicios de oncología radioterápica.Véase también acelerador lineal acelerador de partículas Acople El acople (howling) es un fenómeno producido por la retroalimentación (feedback) que ocurre en un sistema cuando una determinada fuente sonora recoge su propio sonido, reintroduciéndolo en el sistema. El resultado es un pitido característico muy desagradable y molesto. El caso más típico es el acople micrófono-altavoz.
En este caso, se produce acople cuando un micrófono recoge el sonido proveniente de uno o varios altavoces.Quizás el acople más conocido es también el acople de la guitarra eléctrica, que ha sido usado frecuentemente por artistas como Jimi Hendrix o Pete Townshend entre otros. También en conciertos cuando el cantante se acerca a la P.A Actividad óptica Cristales de cuarzo La rotación óptica o actividad óptica es la rotación de la polarización lineal de la luz cuando viaja a través de ciertos materiales.
Suele ser un fenómeno que ocurre en soluciones que presentan moléculas quirales tales como la sacarosa (azúcar), sólidos con planos cristalinos rotados, tales como el cuarzo, y la polarización circular de gases atómicos o moleculares.Se emplea en la industria de elaboración de azúcar para medir en los siropes la concentración de azúcares, en óptica para manipular la polarización, en química para caracterizar sustancias en solución acuosa, y en medicina está siendo evaluado en la actualidad como un método de determinación de la concentración de azúcar en sangre en casos de personas que sufren la diabetes.
Contenido 1 Historia 2 Teoría 3 Áreas de uso 4 Referencias 5 Véase también 6 Enlaces externos Historia La rotación y cambio en la orientación de la polarización de la luz fue observada por primera vez en el año 1811 en el cuarzo por el físico francés Dominique F.J. Arago.Casi en el mismo tiempo, el químico Jean Baptiste Biot llegó a observar el efecto en los líquidos y gases de sustancias orgánicas tales como la turpentina. En el año 1822 el astrónomo inglés Sir Joun F.W. Herschel llego a descubrir que diferentes formas de cristales eran capaz de rotar los planos de polarización en diferentes direcciones.
Se empleaban por aquellas épocas polarímetros para medir la concentración de simples azúcares, tales como la glucosa, en solución acusosa.De hecho, uno de los nombres asignados a la glucosa, dextrosa es debido a la característica que muestra esta glucosa para hacer girar "a la derecha" el plano de polarización (dexter). De forma similar, la muy común, fructosa, provoca que el plano de polarzación rote a la izquierda. La fructosa es incluso más "levogiradora" que la glucosa como "dextrogiratoria". Por ejemplo, el azúcar invertido, se forma por adición de fructosa a una solución de glucosa, haciendo que ésta gire a en una dirección invertida a la esperada.
Teoría La actividad óptica es una especie de birrefringencia.Cualquier polarización lineal de la luz puede ser escrita como una combinación equilibrada de polarización a derechas (RHC) y polarizada circularmente a izquierdas (LHC): donde es el campo eléctrico de la luz. La fase relativa entre las dos polarizaciones circulares es 20, esto hace que la polarización lineal quede en el estado 0. En un material ópticamente activo las dos polarizaciones circulares experimentan una trayectoria diferente debido al índice de refracción. La diferencia entre los índices de refracción hace que exista una diferencia de camino óptico entre ellos al recorrer el material, n = nRHC nLHC.
Esta característica es muy habitual en los materiales (para sustancias en solución que tienen una rotación específica).Tras viajar a través de una longitud L de material las dos polarizaciones tienen una fase relativa de magnitud , donde es la longitud de onda de la luz (en el vacío). Consecuentemente, la polarización final es la rotación del plano de polarización un ángulo igual a: 0+. Generalmente el índice de refracción depende de la longitud de onda (véase dispersión). La variación en la rotación con una longitud de onda dada se denomina dispersión óptica rotatoria (ORD). El espectro de ORD y el dicroísmo circular están íntimamente relacionados mediante las relaciones de Kramers-Kronig.
Si se conoce el espectro completo de un tipo, se puede mediante estas relaciones conocer el espectro del otro.En resumen, el grado de rotación depende del color de la luz (la línea D del sodio cerca de los 589 nm de longitud de onda se emplea comúnmente para estas medidas), de la longitud óptica L y de las propiedades del material (es decir n o rotación específica y/o concentración). Áreas de uso Para una substacia pura en solución, si el color y la longitud óptica están fijas y la rotación específica es conocida, la rotación observada puede emplearse para calcular la concentración de la disolución. Este uso hizo posible que emplear un polarímetro fuera de gran importancia para aquellos que comercializán con azúcar o sirope.
En presencia de un campo magnético hace que todas las moléculas tengan actividad óptica.Un campo magnético alineado en la dirección de propagación de la luz hace que el material provoque una rotación del plano que contiene la polarización lineal. Este es el efecto Faraday que fue uno de los primeros descubrimientos que relacionaron la luz con los campos electromagnéticos. La actividad óptica de los materiales no debería confundirse con la luz circularmente polarizada, esta confusión tiene tal vez su origen al representar el estado de polarización de los rayos luminosos cuando viajan por el material que poseen polarización circular a medida que se propagan por él.
Referencias Eugene Hecht, Optics, 3rd Ed., Addison-Wesley, 1998, Véase también Birrefringencia Polarización electromagnética Enlaces externos Quiralidad de algunas moléculas comunes en la Industria abundantes propiedades físicas comentadas Actuador Se denominan actuadores a aquellos elementos que pueden provocar un efecto sobre un proceso automatizado.Los actuadores son dispositivos capaces de generar una fuerza a partir de líquidos, de energía eléctrica y gaseosa. El actuador recibe la orden de un regulador o controlador y da una salida necesaria para activar a un elemento final de control como lo son las válvulas.
Existen tres tipos de actuadores: Hidráulicos Neumáticos Eléctricos Los actuadores hidráulicos, neumáticos y eléctricos son usados para manejar aparatos mecatrónicos.Por lo general, los actuadores hidráulicos se emplean cuando lo que se necesita es potencia, y los neumáticos son simples posicionamientos. Sin embargo, los hidráulicos requieren mucho equipo para suministro de energía, así como de mantenimiento periódico. Por otro lado, las aplicaciones de los modelos neumáticos también son limitadas desde el punto de vista de precisión y mantenimiento. Los actuadores eléctricos también son muy utilizados en los aparatos mecatrónicos, como por ejemplo, en los robots.
Los servomotores CA sin escobillas se utilizaran en el futuro como actuadores de posicionamiento preciso debido a la demanda de funcionamiento sin tantas horas de mantenimiento.Contenido 1 Actuadores hidráulicos 2 Actuadores neumáticos 3 Actuadores eléctricos 4 Partes de un actuador 5 Véase también Actuadores hidráulicos Los actuadores hidráulicos, que son los de mayor antigüedad, pueden ser clasificados de acuerdo con la forma de operación, funcionan en base a fluidos a presión. Existen tres grandes grupos: 1. cilindro hidráulico 2.
2. motor hidráulico 3. motor hidráulico de oscilación Cilindro hidráulico De acuerdo con su función podemos clasificar a los cilindros hidráulicos en 2 tipos: de Efecto simple y de acción doble.En el primer tipo se utiliza fuerza hidráulica para empujar y una fuerza externa, diferente, para contraer. El segundo tipo se emplea la fuerza hidráulica para efectuar ambas acciones. Motor hidráulico En los motores hidráulicos el movimiento rotatorio es generado por la presión.
Estos motores los podemos clasificar en dos grandes grupo: El primero es uno de tipo rotatorio en el que los engranes son accionados directamente por aceite a presión, y el segundo, de tipo oscilante, el movimiento rotatorio es generado por la acción oscilatoria de un pistón o percutor; este tipo tiene mayor demanda debido a su mayor eficiencia Actuadores neumáticos A los mecanismos que convierten la energía del aire comprimido en trabajo mecánico se les denomina actuadores neumáticos.Aunque en esencia son idénticos a los actuadores hidráulicos, el rango de compresión es mayor en este caso, además de que hay una pequeña diferencia en cuanto al uso y en lo que se refiere a la estructura, debido a que estos tienen poca viscosidad.
En esta clasificación aparecen los fuelles y diafragmas, que utilizan aire comprimido y también los músculos artificiales de hule, que últimamente han recibido mucha atención.De efecto simple Cilindro neumático Actuador neumático de efecto doble Con engranaje Motor neumático con veleta Con pistón Con una veleta a la vez Multiveleta Motor rotatorio con pistón De ranura vertical De émbolo Fuelles, diafragma y músculo artificial Actuadores eléctricos La estructura de un actuador eléctrico es simple en comparación con la de los actuadores hidráulicos y neumáticos, ya que sólo se requieren de energía eléctrica como fuente de poder.
Como se utilizan cables eléctricos para transmitir electricidad y las señales, es altamente versátil y prácticamente no hay restricciones respecto a la distancia entre la fuente de poder y el actuador.Existe una gran cantidad de modelos y es fácil utilizarlos con motores eléctricos estandarizados según la aplicación. En la mayoría de los casos es necesario utilizar reductores, debido a que los motores son de operación continua. Utilización de un pistón eléctrico para el accionamiento de una válvula pequeña. La forma más sencilla para el accionamiento con un pistón, seria la instalación de una palanca solidaria a una bisagra adherida a una superficie paralela al eje del pistón de accionamiento y a las entradas roscadas.
Existen actuadores de estado solido, los cuales permiten realizar movimientos silenciosos sin motores.Es la tecnología más innovadora para robótica y automática, como así también para la implementación de pequeños actuadores. Partes de un actuador 1. Sistema de "llave de seguridad" : Este método de llave de seguridad para la retención de las tapas del actuador, usa una cinta cilíndrica flexible de acero inoxidable en una ranura de deslizamiento labrada a máquina. Esto elimina la concentración de esfuerzos causados por cargas centradas en los tornillos de las tapas y helicoils. Las Llaves de Seguridad incrementan de gran forma la fuerza del ensamblado del actuador y proveen un cierre de seguridad contra desacoplamientos peligrosos. 2.
Piñón con ranura: Esta ranura en la parte superior del piñón provee una transmisión autocentrante, directa para indicadores de posición e interruptores de posición, eliminando el uso de bridas de acoplamiento.(Bajo la norma Namur). 3. Cojinetes de empalme: Estos cojinetes de empalme barrenados y enroscados sirven para simplificar el acoplamiento de accesorios a montar en la parte superior. (Bajo normas ISO 5211 Y VDI). 4. Pase de aire grande: Los conductos internos para el pasaje de aire extra grandes permiten una operación rápida y evita el bloqueo de los mismos. 5.
Muñoneras: Una muñonera de nuevo diseño y de máxima duración, permanentemente lubricada, resistente a la corrosión y de fácil reemplazo, extiende la vida del actuador en las aplicaciones más severas.6. 6. Construcción: Se debe proveer fuerza máxima contra abolladuras, choques y fatiga. Su piñón y cremallera debe ser de gran calibre, debe ser labrado con maquinaria de alta precisión, y elimina el juego para poder obtener posiciones precisas. 7. Ceramigard: Superficie fuerte, resistente a la corrosión, parecida a cerámica. Protege todas las partes del actuador contra desgaste y corrosión. 8. Revestimiento: Un revestimiento doble, para proveer extra protección contra ambientes agresivos. 9.
Acople: Acople o desacople de módulos de reposición por resorte, o de seguridad en caso de falla de presión de aire.10. Tornillos de ajuste de carrera: Provee ajustes para la rotación del piñón en ambas direcciones de viaje; lo que es esencial para toda válvula de cuarto de vuelta. 11. Muñoneras radiales y de carga del piñón: Muñoneras reemplazables que protegen contra cargas verticales. Muñoneras radiales soportan toda carga radial. 12. Sellos del piñón - superior e inferior: Los sellos del piñón están posicionados para minimizar todo hueco posible, para proteger contra la corrosión. 13. Resortes indestructibles de seguridad en caso de falla: Estos resortes son diseñados y fabricados para nunca fallar y posteriormente son protegidos contra la corrosión.
Los resortes son clasificados y asignados de forma particular para compensar la pérdida de memoria a la cual esta sujeta todo resorte; para una verdadera confianza en caso de falla en el suministro de aire.Los actuadores más usuales son: Cilindros neumáticos e hidráulicos. Realizan movimientos lineales. Motores (actuadores de giro) neumáticos e hidráulicos. Realizan movimientos de giro por medio de energía hidráulica o neumática. Válvulas. Las hay de mando directo, motorizadas, electroneumáticas, etc. Se emplean para regular el caudal de gases y líquidos. Resistencias calefactoras. Se emplean para calentar. Motores eléctricos. Los más usados son de inducción, de continua, sin escobillas y paso a paso.
Bombas, compresores y ventiladores.Movidos generalmente por motores eléctricos de inducción. Véase también Preactuador Acumulador de calor (calefacción) Un acumulador de calor es un aparato del sistema de calefacción que almacena en un núcleo de bloques cerámicos aislando el calor producido por cualquier medio, generalmente por la electricidad, para su posterior uso. El principio básico del concepto de acumulador se basa en la alternancia de ciclos de carga y ciclos de descarga, correspondiéndose generalmente los ciclos de carga con la noche y los de descarga con el día, debido a las tarifas reducidas, así como a las mayores necesidades de uso diurno. Acumulador dinámico de 3Kw, acumula 24Kwh de energía.
Contenido 1 Partes de un acumulador 2 Tipos 2.1 Acumulador Estático 2.2 Acumuladores dinámicos 3 Calefacción por acumulación eléctrica 4 Viabilidad 5 Enlaces exteriores Partes de un acumulador Las partes fundamentales que componen un acumulador de calor para calefacción son: un núcleo acumulador consistente en un grupo de ladrillos refractarios cuya misión será retener el calor, hasta alcanzar temperaturas de 600-700 ºC al final del ciclo de carga.una serie de resistencias eléctricas, generalmente de tipo blindado, que calientan de forma uniforme el núcleo acumulador.
aislamiento térmico para conservar el calor acumulado por el núcleo y para evitar que las temperaturas superficiales alcancen los 90 ºC (máxima temperatura superficial admitida por la normativa, consultar el CTE.sistema de seguridad para que los ciclos se realicen en condiciones óptimas y un limitar térmico para evitar posibles fallos de recalentamiento del núcleo. sistema de control que permite la descarga de la energía acumulada convenientemente y regula la carga. Tipos Fundamentalmente hay dos tipos diferentes de acumuladores, los estáticos y los dinámicos. Existen tipos mixtos que persiguen realizar una descarga combinada. Acumulador Estático Este tipo de acumuladores son los más básicos.
Los elementos de carga y el núcleo de acumulación son similares a los dinámicos pero el aislamiento del mismo es más sencillo.En este tipo de acumuladores, la descarga se realiza por convección natural y por radiación. Para el control de la descarga se utilizan una serie de trampillas que impiden el paso del aire a través del núcleo de acumulación, estas trampillas están reguladas mediante un sistema bimetálico que es ajustable desde un mando exterior. Esta forma de regulación de descarga logra controlar un 20% de la misma, mientras que el otro 80% se realiza por radiación de la superficie del aparato, es decir por perdidas del aislamiento y por lo tanto es incontrolable.
Los acumuladores estáticos están recomendados para ser usados en los lugares habitados permanentemente manteniendo una temperatura de confort permanente.Acumuladores dinámicos Los acumuladores dinámicos tiene un aislamiento mucho más eficaz que los estáticos. En ellos la descarga se realiza mediante una pequeña turbina que impulsa aire a través del núcleo de acumulación. Sus pérdidas son de un 20%, que cede por radiación, mientas que el 80% restante es descargado mediante la turbina y puede ser regulado mediante termostatos, tanto externos como internos en el propio aparato. El control de la descarga permite la integración en sistemas domóticos y la gestión de la temperatura en áreas determinadas.
Calefacción por acumulación eléctrica Los problemas ligados por la producción de la energía eléctrica y su dificultad de acumulación hace que en las hora bajas o valles -aquellas en que el consumo es mínimo- haya que buscar alternativas para evitar que se apaguen las centrales térmicas responsables de proporcionar la base energética de cualquier sistema de electrogeneración, en particular las centrales térmicas de tecnología nuclear.Una de las formas para lograr el objetivo es incentivando el consumo en horas valle, por lo que las compañías eléctricas establecen tarifas un 50% más baratas que en las otras de consumo alto. La calefacción por acumulación aprovecha esta circunstancia para calefaccionar las viviendas y locales.
Para lograr este objetivo se debe acumular durante las 8 horas, que normalmente dura el período valle, toda la energía necesaria para el mantenimiento de la temperatura durante el resto del día.Al disponer de una cantidad limitada de acumulación es muy importante el cálculo correcto de las necesidades de aporte energético para calefaccionar un espacio determinado. Las características de los espacios a calefaccionar, son importantísimos. El sistema de aislamiento, así como los tiempos de temperatura de confort deben ser estudiados con mucho detenimiento.
Para el mantenimiento de una determinada temperatura en un espacio determinado se debe de aportar la energía que se pierde por la diferencia de temperaturas entre el exterior y el interior del mismo, y de la conductividad térmica (las perdidas) que el recinto posee.Una vez realizado el cálculo, hay que dimensionar el acumulador de tal forma que logre realizar en las ocho horas de periodo valle, y por lo tanto barato, la carga completa de la energía precisa. Uno de los mayores inconvenientes, es que la carga se debe de realizar con antelación a las necesidades de calefacción. Esto obliga a que se deba realizar una programación de esa necesidades, es decir, una predicción de las condiciones meteorológicas que habrá al día siguiente.
Otro problema es el de las pérdidas que tienen, al ceder la energía acumulada por radiación y haber ciertos períodos del día donde la aportación no es necesaria, esto ocurre muy comúnmente en primavera y otoño, estaciones que tienen unos comienzos y finales de los días fríos mientras que en la mitad del mismo, el sol suele calentar suficientemente, haya una sobre calefacción que puede resultar molesto.Las calificaciones por acumulación suelen combinar los dos tipos de acumuladores normalmente por cuestiones económicas. Los estáticos son mucho más baratos que los dinámicos, pero lo ideal es realizarlas con acumuladores dinámicos fácilmente controlables.
Hay sistemas de control de carga que prevén las necesidades energéticas dependiendo de la temperatura exterior y de la previsión meteorológica.La calefacción eléctrica por acumulación tienen un muy bajo mantenimiento, no es necesario más que la limpieza anual de los acumuladores y la reposición de las pilas de los cronotermostatos. Viabilidad Ventajas Costes reducidos de uso debido a las tarifas energéticas nocturnas. Instalación sencilla ya que no requiere obra. Es una solución limpia y segura (como todas las soluciones que cuentan con le energía eléctrica).
Inconvenientes Con la actual reforma sobre las tarifas eléctricas, el consumo energético en las horas denominadas como punta se penaliza con un incremento de precio del 35% con respecto a la tarifa normal, haciendo que el atractivo económico de las tarifas nocturnas sea casi nulo(solo aplicable a España).Menor control sobre la descarga de calor, dependiendo del tipo de acumulador Precio elevado de cada aparato y grandes diferencias entre modelos en el mercado. La instalación eléctrica de inmuebles antiguos suele necesitar una reforma casi total.
Enlaces exteriores Catálogo de acumuladores dinámicos (imágenes de su estructura) Acústica (física) Fuente de sonido omnidireccional en una cámara anecoica En física, la acústica es la ciencia que analiza y estudia los fenómenos sonoros por medio de modelos físicos y matemáticos.Se considera como fenómenos sonoros a los debidos a ondas mecánicas en toda clase de medios, incluyendo el sonido, los infrasonidos y los ultrasonidos. La ingeniería acústica es la rama de la ingeniería que trata de las aplicaciones tecnológicas de la acústica.
La acústica considera el sonido como una vibración que se propaga generalmente en el aire a una velocidad de 343 m/s (aproximadamente 1 km cada 3 segundos), ó 1.235 km/h en condiciones normales de presión y temperatura (1 atm y 20 ºC).Véase también Producción de sonido Acutancia Ampliación de la acutancia en una imagen digital. En la barra izquierda se ha acentuado exageradamente la acutancia; en el detalle (parte inferior) se ve que el efecto se debe a la amplificación del contraste entre píxeles contiguos La acutancia de una imagen es el grado de contraste que se observa en el límite entre detalles que difieren por su luminancia o densidad óptica.
Cuanto más contrastado sea el límite entre una zona oscura y otra más clara, mayor es la acutancia y con ella la nitidez percibida en la imagen.La definición o resolución de la imagen no crecen cuando aumenta la acutancia, pero sí la capacidad para distinguir los detalles y la sensación subjetiva, que es la de un aumento de definición, de detalle. El sistema perceptivo visual humano es capaz de distinguir detalles más pequeños cuando su contraste es mayor. Adaptador de impedancia Emparejar o igualar la impedancia, consiste en hacer que la impedancia de salida de una fuente de alimentación sea igual a la impedancia de entrada de la carga a la cual que se conecta. Esto con el fin de encontrar la máxima transferencia de poder y aminorar las pérdidas de potencia.
Este sólo aplica cuando ambos dispositivos son lineales.A veces en los circuitos eléctricos, se necesita encontrar la máxima transferencia de voltaje en vez de la máxima transferencia de potencia. En este caso lo que se requiere es encontrar el valor de impedancia donde la impedancia de carga sea mucho más grande que la impedancia de la fuente. El concepto de emparejar la impedancia se desarrolló originalmente para la potencia eléctrica, pero fue generalizado a otros campos de la ingeniería donde cualquier forma de energía (no solamente la eléctrica) es transferida entre una fuente y una carga. Admitancia En ingeniería eléctrica, la admitancia de un circuito es la facilidad que este ofrece al paso de la corriente.
Fue Oliver Heaviside quien comenzó a emplear este término en diciembre de 1887.De acuerdo con su definición, la admitancia de la impedancia, : es la inversa En el SI, la unidad de la admitancia es el Siemens, también llamada mho, proveniente de la unidad de resistencia, ohm, a la inversa. Al igual que la impedancia, la admitancia se puede considerar cuantitativamente como un valor complejo: esto es, su módulo es el inverso del módulo de la impedancia y su argumento el de ésta cambiado de sígno.
Si utilizamos la forma binómica de : Multiplicando numerador y denominador por "R - Xj" y operando resulta: Expresión que permite definir las componentes real e imaginaria de la admitancia en función de los valores resistivo, R, y reactivo, X, de la impedancia: Luego, A G se la denomina conductancia y a B susceptancia.Si fueran conocidas las componetes G y B de la admitancia, y a partir de ellas se quieren determinar los valore de R y X de la impedancia, puede demostrarse que: En los análisis de circuitos en paralelo se suele utilizar la admitancia en lugar de la impedancia para simplificar los cálculos.
Relación entre parámetros de admitancia Y y parámetros de dispersión S Los parámetros de admitancia Y pueden obtenerse de los parámetros de dispersión S como muestran las siguientes expresiones.Donde Dichas expresiones normalmente utilizan números complejos para Sij y para Yij. Nótese que el valor de puede ser 0 para valores de Sij, por lo que la división por en los cálculos de Yij puede conllevar una división por 0. En las expresiones, el producto por la impedancia característica Z0 es posible si dicha impedancia no es dependiente de la frecuencia.
Agente antiarrítmico Los agentes antiarrítmicos son un grupo de medicamentos que se usan para suprimir o prevenir las alteraciones del ritmo cardíaco, tales como la fibrilación auricular, el aleteo auricular—sus indicaciones en las arrítmias auriculares aún no aclaran si la supresión de dichas arrítmias prolongan la vida—,[1] [2] la taquicardia ventricular y la fibrilación ventricular, a concentraciones en la que no ejercen efectos adversos sobre la propagación normal del latido cardíaco.Los antiarrítmicos son el tratamiento de elección para los pacientes con trastornos del ritmo cardíaco, aunque pueden ser reemplazados en algunas ocasiones especificas por desfibriladores, marcapasos, técnicas de ablación y quirúrgicas.
En el pasado se pensó que seguido de un infarto agudo de miocardio, la supresión de las arrítmias ventriculares podían alargar la vida del paciente.Sin embargo, en estudios clínicos de mayor cobertura y tamaño, se ha demostrado que la supresión de estas arrítmias paradógicamente aumenta la tasa bruta de mortalidad,[3] [4] probablemente debido al efecto pro-arrítmico que estos agentes puedan tener. En individuos con fibrilación y aleteo auricular, el uso de agentes antiarrítmicos se indica solo para aliviar los síntomas asociados con la incapacidad del componente auricular de llenar los ventrículos.
De fallar el uso de agentes antiarrítmicos, en especial en pacientes con eventos frecuentes y en ciertos trastornos estructurales del corazón, puede que sea necesaria la implantación de un desfibrilador automático implantable (DAI).La combinación de agentes antiarrítmicos y DAIs pueden prevenir la muerte súbita cardiaca, especialmente por fibrilación ventricular.