ALGO DE LO QUE QUIERAN SABER Y NO ESTA EN ESTA PAGINA, FAVOR DE MANDARLO A alonso19_95@hotmail.com.

Powered By Blogger

Etiquetas

Mostrando entradas con la etiqueta CIENCIA. Mostrar todas las entradas
Mostrando entradas con la etiqueta CIENCIA. Mostrar todas las entradas

GRADO FAHRENHEIT

Termómetro con escala principal de grados Fahrenheit y escala secundaria en grados Celsius.
El grado Fahrenheit (representado como °F) es la unidad de temperatura propuesta por Gabriel Fahrenheit en 1724, cuya escala fija el cero y el cien en las temperaturas de congelación y evaporación del cloruro amónico en agua. El método de definición es similar al utilizado para el grado Celsius, aunque éste se define con la congelación y ebullición del agua.
Colocando el termómetro en una mezcla de sal de amonio o agua salada, hielo y agua, encontré un punto sobre la escala al cual llamé cero. Un segundo punto lo obtuve de la misma manera, si la mezcla se usa sin sal. Denotando este punto como 30. Un tercer punto, designado como 96, fue obtenido colocando el termómetro en la boca para adquirir el calor del cuerpo humano."

Historia
Existen algunas versiones de la historia de como Fahrenheit llegó a tener esa escala de temperatura. De acuerdo con el propio Fahrenheit, en el artículo que escribió en 1724, determinó tres puntos de temperatura. El punto cero está determinado al poner el termómetro en una mezcla de hielo, agua y cloruro de amonio. Éste es un tipo de mezcla frigorífica, que se estabiliza a una temperatura de 0 °F. Se pone luego el termómetro de alcohol o mercurio en la mezcla y se deja que el líquido en el termómetro obtenga su punto más bajo. El segundo punto es a 32 °F con la mezcla de agua y hielo, esta vez sin sal. El tercer punto, los 96 °F, es el nivel del líquido en el termómetro cuando se lo pone en la boca o bajo el brazo (en la axila). Fahrenheit notó que al utilizar esta escala el mercurio podía hervir cerca de los 600 grados.
Otra teoría indica que Fahrenheit estableció el 0 °F y los 96 °F en la escala al grabar las más bajas temperaturas que él pudo medir y su propia temperatura corporal. Él tomó la más baja temperatura que se midió en el duro invierno de 1708 a 1709 en su ciudad Danzig (ahora llamada Gdańsk en Polonia), cerca de –17,8 °C, como punto cero.
Una variante de esta versión es que la mezcla de hielo, sal y agua registrada en la escala Fahrenheit, lo obtuvo en su laboratorio y la más alta la tomó de la temperatura de su cuerpo a 96 °F.
Fahrenheit quería abolir las temperaturas negativas que tenía la escala Rømer. Fijó la temperatura de su propio cuerpo a 96 °F (a pesar que la escala tuvo que ser recalibrada a la temperatura normal del cuerpo, que es cercana a los 96,8 °F, equivalente a 36 °C), dividió la escala en doce secciones y subsecuentemente cada una de esas secciones en 8 subdivisiones iguales lo que produjo una escala de 96 grados. Fahrenheit notó que en esta escala el punto de congelación del agua estaba a los 32 °F y el de punto de ebullición a los 212 °F.

Nótese la diferencia entre conversión de temperaturas (la temperatura de un cuerpo es 27 grados) y la conversión de incrementos de grados (la temperatura de un cuerpo ha aumentado en 27 grados)

Uso
Esta escala se utilizaba en la mayoría de los países anglosajones para todo tipo de uso. Desde los años sesenta varios gobiernos han llevado a cabo políticas tendientes a la adopción del sistema internacional de unidades y su uso fue desplazado. Sin embargo en los Estados Unidos sigue siendo utilizada por la población para usos no científicos y en determinadas industrias muy rígidas, como la del petróleo.
Para uso científico se usaba también una escala absoluta, la escala de Rankine, que fijaba el 0 al cero absoluto de forma análoga a lo que ocurre en la escala Kelvin.

GRADOS CENTIGRADOS

Termómetro clínico graduado en Celsius.

Óleo de Olof Arenius representando a Anders Celsius.
El grado Celsius, representado como °C, es la unidad creada por Anders Celsius en 1742 para su escala de temperatura. Se tomó como base para el kelvin y es la unidad más utilizada internacionalmente para las temperaturas que rondan la ordinaria y en ciencia popular y divulgación (en contextos técnicos se prefiere el kelvin). Es una de las unidades derivadas del Sistema Internacional de Unidades. En la actualidad se define a partir del kelvin del siguiente modo:
Las temperaturas de fusión y ebullición del agua destilada a una atmósfera de presión, en las escalas Celsius, Fahrenheit y Kelvin, son las siguientes:
Temperaturas de fusión y ebullición del agua a 1 atm de presión atmosférica
escala/ fusión- ebullición
escala Kelvin /273,15 K - 373,15 K
escala Celsius /0 °C- 100 °C
escala Fahrenheit / 32 °F - 212 °F

A partir de su creación en 1750 fue denominado grado centígrado (se escribía °c, en minúscula). Pero en 1948 se decidió el cambio en la denominación oficial para evitar confusiones con la unidad de ángulo también denominada grado centígrado (grado geométrico), aunque la denominación previa se sigue empleando extensamente en el uso coloquial.
Hasta 1954 se definió tomando el valor 0 para la temperatura de congelación del agua y el valor 100 para la temperatura de ebullición —ambas medidas a una atmósfera de presión— y dividiendo la escala resultante en 100 partes iguales, cada una de ellas definida como 1 grado. Estos valores de referencia son muy aproximados pero no correctos por lo que, a partir de 1954, se define asignando el valor 0,01 °C a la temperatura del punto triple del agua y definiendo 1 °C como la fracción 1/273,16 de la diferencia con el cero absoluto.
Desde 1968 se define a partir del kelvin. Una diferencia de un grado Celsius es equivalente a una diferencia de un kelvin (K).

Conversión de unidad
La magnitud de un grado Celsius (1 °C) es equivalente a la magnitud de :
La conversión de grados Celsius a grados Fahrenheit se obtiene multiplicando la temperatura en Celsius por 1,8 (9/5) y sumando 32, esto da el resultado:

KELVIN

El kelvin es la unidad de temperatura de la escala creada por William Thomson en el año 1848, sobre la base del grado Celsius, estableciendo el punto cero en el cero absoluto (−273,15 °C) y conservando la misma dimensión. William Thomson, quien más tarde sería Lord Kelvin, a sus 24 años introdujo la escala de temperatura termodinámica, y la unidad fue nombrada en su honor.
Se toma como la unidad de temperatura en el Sistema Internacional de Unidades y se corresponde a una fracción de 1/273,16 partes de la temperatura del punto triple del agua. Se representa con la letra "K", y nunca "°K". Además, su nombre no es el de "grado kelvin", sino simplemente "kelvin"; no se dice "19 grados Kelvin" sino "19 kelvin" o "19 K".
Coincidiendo el incremento en un grado Celsius con el de un kelvin, su importancia radica en el 0 de la escala: a la temperatura de 0 K se la denomina cero absoluto y corresponde al punto en el que las moléculas y átomos de un sistema tienen la mínima energía térmica posible. Ningún sistema macroscópico puede tener una temperatura inferior. A la temperatura medida en Kelvin se le llama "temperatura absoluta", y es la escala de temperaturas que se usa en ciencia, especialmente en trabajos de física o química.
También en iluminación de vídeo y cine se utilizan los kelvin como referencia de la temperatura de color. Cuando un cuerpo negro es calentado emitirá un tipo de luz según la temperatura a la que se encuentra. Por ejemplo, 1600 K es la temperatura correspondiente a la salida o puesta del sol. La temperatura del color de una lámpara de filamento de tungsteno corriente es de 2800 K. La temperatura de la luz utilizada en fotografía y artes gráficas es 5000 K y la del sol al mediodía con cielo despejado es de 5200 K. La luz de los días nublados es más azul, y es de más de

6000 K.

Factores de conversión
La escala Celsius se define en la actualidad en función del Kelvin.
grados Celsius a kelvin

Ejemplos de temperaturas notables:
Cero absoluto 0 K o −273,15 °C
Congelación del agua 273,15 K ó 0 °C

Temperatura y energía. La física estadística dice que, en un sistema termodinámico, la energía contenida por las partículas es proporcional a la temperatura absoluta, siendo la constante de proporcionalidad la constante de Boltzmann. Por eso es posible determinar la temperatura de unas partículas con una determinada energía, o calcular la energía de unas partículas a una determinada temperatura. Esto se hace a partir del denominado Principio de equipartición. El principio de equipartición establece que la energía de un sistema termodinámico es donde:

kB es la constante de Boltzmann
T es la temperatura expresada en kelvin
n es el número de grados de libertad del sistema (por ejemplo, en sistemas monoatómicos donde la única posibilidad de movimiento es la traslación de unas partículas respecto a otras en las tres posibles direcciones del espacio, n es igual a 3).

LA TEMPERATURA

La temperatura de un gas ideal monoatómico es una medida relacionada con la energía cinética promedio de sus átomos al moverse. En esta animación, la relación del tamaño de los átomos de helio respecto a su separación se conseguiría bajo una presión de 1950 atmósferas. Estos átomos a temperatura ambiente tienen una cierta velocidad media (aquí reducida dos billones de veces).
La temperatura es una magnitud referida a las nociones comunes de calor o frío. Por lo general, un objeto más "caliente" tendrá una temperatura mayor. Físicamente es una magnitud escalar relacionada con la energía interna de un sistema termodinámico. Más específicamente, está relacionada directamente con la parte de la energía interna conocida como "energía sensible", que es la energía asociada a los movimientos de las partículas del sistema, sea en un sentido traslacional, rotacional, o en forma de vibraciones. A medida que es mayor la energía sensible de un sistema se observa que esta más "caliente" es decir, que su temperatura es mayor.
En el caso de un sólido, los movimientos en cuestión resultan ser las vibraciones de las partículas en sus sitios dentro del sólido. En el caso de un gas ideal monoatómico se trata de los movimientos traslacionales de sus partículas (para los gases multiatómicos los movimientos rotacional y vibracional deben tomarse en cuenta también).
El desarrollo de técnicas para la medición de la temperatura ha pasado por un largo proceso histórico, ya que es necesario darle un valor numérico a una idea intuitiva como es lo frío o lo caliente.
Multitud de propiedades fisicoquímicas de los materiales o las sustancias varían en función de la temperatura a la que se encuentren, como por ejemplo su estado (sólido, líquido,gaseoso , plasma...), su volumen, la solubilidad, la presión de vapor, su color o la conductividad eléctrica. Así mismo es uno de los factores que influyen en la velocidad a la que tienen lugar las reacciones químicas.
La temperatura se mide con termómetros, los cuales pueden ser calibrados de acuerdo a una multitud de escalas que dan lugar a las unidades de medición de la temperatura. En el Sistema Internacional de Unidades, la unidad de temperatura es el kelvin. Sin embargo, fuera del ámbito científico el uso de otras escalas de temperatura es común el uso de la escala Celsius (antes llamada centígrada) y en los países anglosajones, la escala Fahrenheit. También existe la escala Rankine (°R) que establece su punto de referencia en el mismo punto de la escala Kelvin.

Nociones generales
La temperatura es una propiedad física que se refiere a las nociones comunes de frío o calor, sin embargo su significado formal en termodinámica es más complejo, a menudo el calor o el frío percibido por las personas tiene más que ver con la sensación térmica (ver más abajo), que con la temperatura real. Fundamentalmente, la temperatura es una propiedad que poseen los sistemas físicos a nivel macroscópico, la cual tiene una causa a nivel microscópico, que es la energía promedio por partícula.
Al contrario de otras cantidades termodinámicas como el calor o la entropía, cuyas definiciones microscópicas son válidas muy lejos del equilibrio térmico, la temperatura sólo puede ser medida en el equilibrio, precisamente porque se define como un promedio.
La temperatura está íntimamente relacionada con la energía interna y con la entalpía de un sistema: a mayor temperatura mayores serán la energía interna y la entalpía del sistema.
La temperatura es una propiedad intensiva, es decir que no depende del tamaño del sistema, sino que es una propiedad que le es inherente y no depende ni de la cantidad de sustancia ni del material del que este compuesto.

Definición formal

Ley cero de la Termodinámica
Un termómetro debe alcanzar el equilibrio térmico antes de que su medición sea correcta.
Antes de dar una definición formal de temperatura, es necesario entender el concepto de equilibrio térmico. Si dos partes de un sistema entran en contacto térmico es probable que ocurran cambios en las propiedades de ambas. Estos cambios se deben a la transferencia de calor entre las partes. Para que un sistema esté en equilibrio térmico debe llegar al punto en que ya no hay intercambio de calor entre sus partes, además ninguna de las propiedades que dependen de la temperatura debe variar.
Una definición de temperatura se puede obtener de la Ley cero de la termodinámica, que establece que si dos sistemas A y B están en equilibrio térmico, con un tercer sistema C, entonces los sistemas A y B estarán en equilibrio térmico entre sí. Este es un hecho empírico más que un resultado teórico. Ya que tanto los sistemas A, B, y C están todos en equilibrio térmico, es razonable decir que comparten un valor común de alguna propiedad física. Llamamos a esta propiedad temperatura.
Sin embargo, para que esta definición sea útil es necesario desarrollar un instrumento capaz de dar un significado cuantitativo a la noción cualitativa de ésa propiedad que presuponemos comparten los sistemas A y B. A lo largo de la historia se han hecho numerosos intentos, sin embargo en la actualidad predominan el sistema inventado por Anders Celsius en 1742 y el inventado por William Thomson (mejor conocido como lord Kelvin) en 1848.

Segunda ley de la Termodinámica
También es posible definir la temperatura en términos de la segunda ley de la termodinámica, la cual dice que la entropía de todos los sistemas, o bien permanece igual o bien aumenta con el tiempo, esto se aplica al Universo entero como sistema termodinámico. La entropía es una medida del desorden que hay en un sistema. Este concepto puede ser entendido en términos estadísticos, considere una serie de tiros de monedas. Un sistema perfectamente ordenado para la serie, sería aquel en que solo cae cara o solo cae cruz. Sin embargo, existen múltiples combinaciones por las cuales el resultado es un desorden en el sistema, es decir que haya una fracción de caras y otra de cruces. Un sistema desordenado podría ser aquel en el que hay 90% de caras y 10% de cruces, o 60% de caras y 40% de cruces. Sin embargo es claro que a medida que se hacen más tiros, el número de combinaciones posibles por las cuales el sistema se desordena es mayor; en otras palabras el sistema evoluciona naturalmente hacia un estado de desorden máximo es decir 50% caras 50% cruces de tal manera que cualquier variación fuera de ese estado es altamente improbable.
Para dar la definición de temperatura en base a la segunda ley, habrá que introducir el concepto de máquina térmica la cual es cualquier dispositivo capaz de transformar calor en trabajo mecánico. En particular interesa conocer el planteamiento teórico de la máquina de Carnot, que es una máquina térmica de construcción teórica, que establece los límites teóricos para la eficiencia de cualquier máquina térmica real.

Aquí se muestra la máquina térmica descrita por Carnot, el calor entra al sistema a través de una temperatura inicial (aquí se muestra comoTH) y fluye a través del mismo obligando al sistema a ejercer un trabajo sobre sus alrededores, y luego pasa al medio frío, el cual tiene una temperatura final (TC).
En una máquina térmica cualquiera, el trabajo que esta realiza corresponde a la diferencia entre el calor que se le suministra y el calor que sale de ella. Por lo tanto, la eficiencia es el trabajo que realiza la máquina dividido entre el calor que se le suministra:

Donde Wci es el trabajo hecho por la máquina en cada ciclo. Se ve que la eficiencia depende sólo de Qi y de Qf. Ya que Qi y Qf corresponden al calor transferido a las temperaturas Ti y Tf, es razonable asumir que ambas son funciones de la temperatura:

Sin embargo, es posible utilizar a conveniencia, una escala de temperatura tal que
sustituyendo la ecuación en la relaciona la eficiencia de la máquina con la temperatura:

Hay que notar que para Tf = 0 K la eficiencia se hace del 100%, temperaturas inferiores producen una eficiencia aún mayor que 100%. Ya que la primera ley de la termodinámica prohíbe que la eficiencia sea mayor que el 100%, esto implica que la mínima temperatura que se puede obtener en un sistema microscópico es de 0 K. Reordenando la ecuación se obtiene:

Aquí el signo negativo indica la salida de calor del sistema. Esta relación sugiere la existencia de una función de estado S definida por:

Donde el subíndice indica un proceso reversible. El cambio de esta función de estado en cualquier ciclo es cero, tal como es necesario para cualquier función de estado. Esta función corresponde a la entropía del sistema, que fue descrita anteriormente. Reordenando la ecuación siguiente para obtener una definición de temperatura en términos de la entropía y el calor:

Para un sistema en que la entropía sea una función de su energía interna E, su temperatura esta dada por:

Esto es, el recíproco de la temperatura del sistema es la razón de cambio de su entropía con respecto a su energía.

Unidades de temperatura
Se comparan las escalas Celsius y Kelvin mostrando los puntos de referencia anteriores a 1954 y los posteriores para mostrar como ambas convenciones coinciden. De color negro aparecen el punto triple del agua (0,01 °C, 273,16 K) y el cero absoluto (-273,15 °C, 0 K). De color gris los puntos de congelamiento (0,00 °C, 273,15 K) y ebullición del agua (100 °C, 373,15 K).
Las escalas de medición de la temperatura se dividen fundamentalmente en dos tipos, las relativas y las absolutas. Ya que los valores que puede adoptar la temperatura de los sistemas, aún que no tienen un máximo, sí tienen un nivel mínimo, el cero absoluto.[1] Mientras que las escalas absolutas se basan en el cero absoluto, las relativas tienen otras formas de definirse.

Relativas
Unidades derivadas del SI
Grado Celsius (°C). Para establecer una base de medida de la temperatura Anders Celsius utlizó (en 1742) los puntos de fusión y ebullición del agua. Se considera que una mezcla de hielo y agua que se encuentra en equilibrio con aire saturado a 1 atm está en el punto de fusión. Una mezcla de agua y vapor de agua (sin aire) en equilibrio a 1 atm de presión se considera que está en el punto de ebullición. Celsius dividió el intervalo de temperatura que existe entre éstos dos puntos en 100 partes iguales a las que llamó grados centígrados °c. Sin embargo en 1948 fueron renombrados grados Celsius en su honor, así mismo se comenzó a utilizar la letra mayúscula para denominarlos.
En 1954 la escala Celsius fue redefinida en la Décima Conferencia de Pesos y Medidas en términos de un solo punto fijo y de la temperatura absoluta del cero absoluto. El punto escogido fue el punto triple del agua que es el estado en el que las tres fases del agua coexisten en equilibrio, al cual se le asignó un valor de 0,01 °C. La magnitud del nuevo grado Celsius se define a partir del cero absoluto como la fracción 1/273,16 del intervalo de temperatura entre el punto triple del agua y el cero absoluto. Como en la nueva escala los puntos de fusión y ebullición del agua son 0,00 °C y 100,00 °C respectivamente, resulta idéntica a la escala con la definición anterior con la ventaja de tener una definición termodinámica.
Grado Fahrenheit (°F). Toma divisiones entre los puntos de congelación y evaporación de disoluciones de cloruro amónico. Es una unidad típicamente usada en los países anglosajones.
Grado Réaumur (°Ré, °Re, °R). Usada para procesos industriales específicos, como el almíbar.
Grado Rømer o Roemer. En desuso.
Grado Newton (°N). En desuso.
Grado Leiden. Usada para calibrar indirectamente bajas temperaturas. En desuso.
Grado Delisle (°D) En desuso.

Absolutas
Las escalas que asignan los valores de la temperatura en dos puntos diferentes se conocen como escalas a dos puntos. Sin embargo en el estudio de la termodinámica es necesario tener una escala de medición que no dependa de las propiedades de las sustancias. Las escalas de éste tipo se conocen como escalas absolutas o escalas de temperatura termodinámicas.
Sistema Internacional de Unidades (SI)
Kelvin (K) El Kelvin es la unidad de medida del SI, y siendo la escala Kelvin absoluta parte del cero absoluto y define la magnitud de sus unidades de tal forma que el punto triple del agua este exactamente a 273,16 K.
Aclaración: No se le antepone la palabra grado ni el símbolo º.
Sistema Anglosajón de Unidades:
Grado Rankine (°R o °Ra). Escala con intervalos de grado equivalentes a la escala fahrenheit. Con el origen en -459,67°F (aproximadamente)

Conversión de temperaturas
Las siguientes fórmulas asocian con precisión las diferentes escalas de temperatura:
Kelvin
Grado Celsius
Grado Fahrenheit
Grado Rankine
Grado Réaumur
Grado Rømer
Grado Newton
Grado Delisle

Kelvin
K = K
K = C + 273,15
K = (F + 459,67)
K = Ra
K = Re + 273,15
K = (Ro - 7,5) + 273,15
K = N + 273,15
K = 373,15 - De
Grado Celsius
C = K − 273,15
C = C
C = (F - 32)
C = (Ra - 491,67)
C = Re
C = (Ro - 7,5)
C = N
C = 100 - De
Grado Fahrenheit
F = K - 459,67
F = C + 32
F = F
F = Ra − 459,67
F = Re + 32
F = (Ro - 7,5) + 32
F = N + 32
F = 121 - De
Grado Rankine
Ra = K
Ra = (C + 273,15)
Ra = F + 459,67
Ra = Ra
Ra = Re + 491,67
Ra = (Ro - 7,5) + 491,67
Ra = N + 491,67
Ra = 171,67 - De
Grado Réaumur
Re = (K − 273,15)
Re = C
Re = (F - 32)
Re = (Ra - 491,67)
Re = Re
Re = (Ro - 7,5)
Re = N
Re = 80 - De
Grado Rømer
Ro =(K - 273,15) +7,5
Ro = C +7,5
Ro = (F - 32) +7.5
Ro = Ra - 491,67 +7,5
Ro = Re +7,5
Ro = Ro
Ro = N +7,5
Ro = 60 - De
Grado Newton
N = (K - 273,15)
N = C
N = (F - 32)
N = (Ra - 491,67)
N = Re
N = (Ro - 7,5)
N = N
N = 33 - De
Grado Delisle
De = (373,15 - K)
De = (100 - C)
De = (121 - F)
De = (671,67 - Ra)
De = (80 - Re)
De = (60 - Ro)
De = (33 - N)
De = De

Temperatura en distintos medios
La temperatura en los gases
Para un gas ideal, la teoría cinética de gases utiliza mecánica estadística para relacionar la temperatura con el promedio de la energía total de los átomos en el sistema. Este promedio de la energía es independiente de la masa de las partículas, lo cual podría parecer contraintuitivo para muchos. El promedio de la energía está relacionado excusivamente con la temperatura del sistema, sin embargo, cada partícula tiene su propia energía la cual puede o no corresponder con el promedio; la distribución de la energía, (y por lo tanto de las velocidades de las partículas) está dada por la distribución de Maxwell-Boltzmann. La energía de los gases ideales monoatómicos se relaciona con su temperatura por medio de la siguiente expresión:
, donde (n= número de moles, R= constante de los gases ideales).
En un gas diatómico, la relación es:

El cálculo de la energía cinética de objetos más complicados como las moléculas, es más difícIl. Se involucran grados de libertad adicionales los cuales deben ser considerados. La segunda ley de la termodinámica establece sin embargo, que dos sistemas al interactuar el uno con el otro adquirirán la misma energía promedio por partícula, y por lo tanto la misma temperatura.
En una mezcla de partículas de varias masas distintas, las partículas más masivas se moverán más lentamente que las otras, pero aun así tendrán la misma energía promedio. Un átomo de Neón se mueve relativamente más lento que una molécula de hidrógeno que tenga la misma energía cinética. Una manera análoga de entender esto es notar que por ejemplo, las partículas de polvo suspendidas en un flujo de agua se mueven más lentamente que las partículas de agua. Para ver una ilustración visual de éste hecho vea este enlace. La ley que regula la diferencia en las distribuciones de velocidad de las partículas con respecto a su masa es la ley de los gases ideales.
En el caso particular de la atmósfera, los meteorólogos han definido las temperaturas virtual y potencial, para facilitar algunos cálculos.

Sensación térmica
Es importante destacar que la Sensación térmica es algo distinto de la temperatura tal como se define en termodinámica. La sensación térmica es el resultado de la forma en que el cuerpo humano percibe la temperatura de los objetos y del entorno, y no un reflejo fiel de la temperatura real de las cosas. La sensación térmica es un poco compleja de medir, por distintos motivos:
El cuerpo humano mide la temperatura a pesar de que su propia temperatura se mantiene aproximadamente constante (alrededor de 37 °C), por lo tanto no alcanza el equilibrio térmico con el ambiente o con los objetos que toca.
Los aumentos o incrementos de calor producidos en el cuerpo humano desvían la sensación térmica del valor real de la temperatura, lo cual produce unas sensaciones de temperatura exageradamente alta o baja.
Sin embargo, existen varias formas de simular en un termómetro la sensación térmica tal y como la percibe el cuerpo humano:

Temperatura seca
Se llama Temperatura seca del aire de un entorno, o más sencillamente, temperatura seca, a la del aire, prescindiendo de la radiación calorífica de los objetos que rodean ese ambiente concreto y de los efectos de la humedad relativa y de los movimientos de aire.
Se puede obtener con el termómetro de mercurio, cuyo bulbo, reflectante y de color blanco brillante, se puede suponer razonablemente que no absorbe radiación.

Temperatura radiante
La temperatura radiante tiene en cuenta el calor emitido por radiación de los elementos del entorno.
Se toma con un termómetro de bulbo, que tiene el depósito de mercurio encerrado en una esfera o bulbo metálico de color negro, para asemejarlo lo más posible a un cuerpo negro y absorba la máxima radiación. Para anular en lo posible el efecto de la temperatura del aire, el bulbo negro se aísla mediante otro bulbo en el que se ha hecho al vacío.
Las medidas se pueden tomar bajo el sol o a la sombra. En el primer caso tendrá en cuenta la radiación solar y dará una temperatura bastante más elevada.
También sirve para dar una idea de la sensación térmica.
La temperatura de bulbo negro hace una función parecida, dando la combinación de la temperatura radiante y la ambiental

Temperatura húmeda
Temperatura de bulbo húmedo o Temperatura húmeda es la temperatura que da un termómetro a la sombra con el bulbo envuelto en una mecha de algodón húmedo bajo una corriente de aire.
La corriente de aire se produce mediante un pequeño ventilador o poniendo el termómetro en un molinete y haciéndolo girar.
Al evaporarse el agua, absorbe calor, rebajando la temperatura, efecto que reflejará el termómetro. Cuanto menor sea la humedad relativa ambiente, más rápidamente se evapora el agua que empapa el paño.
Se utiliza para dar una idea de la sensación térmica o en los psicrómetros para calcular la humedad relativa.

Coeficiente de dilatación térmica
Artículo principal: Coeficiente de dilatación
Durante una transferencia de calor, la energía que está almacenada en los enlaces intermoleculares entre 2 átomos cambia. Cuando la energía almacenada aumenta, también lo hace la longitud de estos enlaces. Así, los sólidos normalmente* se expanden al calentarse y se contraen al enfriarse; este comportamiento de respuesta ante la temperatura se expresa mediante el coeficiente de dilatación térmica (unidades: °C-1):
esto no ocurre para todos los sólidos: el ejemplo más típico que no lo cumple es el hielo.
Para sólidos, el tipo de coeficiente de dilatación más comúnmente usado es el coeficiente de dilatación lineal αL. Para una dimensión lineal cualquiera, se puede medir experimentalmente comparando el valor de dicha magnitud antes y después de cierto cambio de temperatura, como:
Puede ser usada para abreviar este coeficiente, tanto la letra griega alfa como la letra lambda .
En gases y líquidos es más común usar el coeficiente de dilatación volumétrico αV, que viene dado por la expresión:
Para sólidos, también puede medirse la dilatación térmica, aunque resulta menos importante en la mayoría de aplicaciones técnicas. Para la mayoría de sólidos en las situaciones prácticas de interés, el coeficiente de dilatación volumétrico resulta ser más o menos el triple del coeficiente de dilatación lineal:

LA FISICA

Física
La física (del lat. physĭca, y este del gr. τὰ φυσικά, neutro plural de φυσικός) es una ciencia natural que estudia las propiedades del espacio, el tiempo, la materia, la energía y sus interacciones.
La física no es sólo una ciencia teórica, es también una ciencia experimental. Como toda ciencia, busca que sus conclusiones puedan ser verificables mediante experimentos y que la teoría pueda realizar predicciones de experimentos futuros. Dada la amplitud del campo de estudio de la física, así como su desarrollo histórico en relación a otras ciencias, se la puede considerar la ciencia fundamental o central, ya que incluye dentro de su campo de estudio a la química y a la biología, además de explicar sus fenómenos.
La física en su intento de describir los fenómenos naturales con exactitud y veracidad ha llegado a límites impensables, el conocimiento actual abarca desde la descripción de partículas fundamentales microscópicas, el nacimiento de las estrellas en el universo e incluso conocer con una gran probabilidad lo que aconteció los primeros instantes del nacimiento de nuestro universo, por citar unos pocos conocimientos.
Esta tarea comenzó hace más de dos mil años con los primeros trabajos de filósofos griegos como Demócrito o Aristóteles, y continuada después por científicos como Galileo Galilei, Isaac Newton, James Clerk Maxwell, Albert Einstein, Niels Bohr, Paul Dirac, Richard Feynman, entre muchos otros.

Breve historia de la física
Si he logrado ver más lejos, ha sido porque he subido a hombros de gigantes.
Sir Isaac Newton.
Se conoce que la mayoría de civilizaciones de la antigüedad trataron desde un principio de explicar el funcionamiento de su entorno, miraban las estrellas y pensaban como ellas podían regir su mundo. Esto llevo a muchas interpretaciones de carácter mas filosófico que físico, no en vano en esos momentos la física se la llamaba filosofía natural. Muchos filósofos se encuentran en el desarrollo primigenio de la física, como Aristóteles, Tales de Mileto o Demócrito, por ser los primeros en tratar de buscar algún tipo de explicación a los fenómenos que los rodeaban.[1] A pesar de que las teorías descriptivas del universo que dejaron estos pensadores eran erradas, éstas tuvieron validez por mucho tiempo, casi dos mil años, en parte por la aceptación de la iglesia católica de varios de sus preceptos como la teoría geocéntrica o las tesis de Aristóteles.[2]
Esta etapa denominada oscurantismo en la ciencia termina cuando Nicolás Copérnico, considerado padre de la astronomía moderna, en 1543 recibe la primera copia de su De Revolutionibus Orbium Coelestium. A pesar de que Copérnico fue el primero en formular teorías plausibles, es otro personaje al cual se le considera el padre de la física como la conocemos ahora. Un catedrático de matemáticas de la Universidad de Pisa a finales del siglo XVI cambiaría la historia de la ciencia empleando por primera vez experimentos para comprobar sus aseveraciones, Galileo Galilei. Con la invención del telescopio y sus trabajos en planos inclinados, Galileo empleó por primera vez el método científico y llegó a conclusiones capaces de ser verificadas. A sus trabajos se le unieron grandes contribuciones por parte de otros científicos como Johannes Kepler, Blaise Pascal, Christian Huygens.[2]
Posteriormente, en el siglo XVII, un científico inglés reúne las ideas de Galileo y Kepler en un solo trabajo, unifica las ideas del movimiento celeste y las de los movimientos en la tierra en lo que el llamó gravedad. En 1687, Sir Isaac Newton en su obra Philosophiae Naturalis Principia Mathematica formuló los tres principios del movimiento y una cuarta Ley de la gravitación universal que transformaron por completo el mundo físico, todos los fenómenos podían ser vistos de una manera mecánica.[3]


Dios no juega a los dados.
Albert Einstein.
Einstein, deje de decirle a Dios lo que tiene que hacer con sus dados.
Niels Bohr.
El trabajo de Newton en el campo, perdura hasta la actualidad; todos los fenómenos macroscópicos pueden ser descritos de acuerdo a sus tres leyes. De ahí que durante el resto de ese siglo y el posterior siglo XVIII, todas las investigaciones se basaron en sus ideas. De ahí que otras disciplinas se desarrollaron, como la termodinámica, la óptica, la mecánica de fluidos y la mecánica estadística. Los conocidos trabajos de Daniel Bernoulli, Robert Boyle, Robert Hooke entre otros, pertenecen a esta época.[4]
Es en el siglo XIX donde se producen avances fundamentales en la electricidad y el magnetismo principalmente de la mano de Charles-Augustin de Coulomb, Luigi Galvani, Michael Faraday y Georg Simon Ohm que culminaron en el trabajo de James Clerk Maxwell de 1855 que logró la unificación de ambas ramas en el llamado electromagnetismo. Además se producen los primeros descubrimientos sobre radiactividad y el descubrimiento del electrón por parte de Joseph John Thomson en 1897.[5]
Durante el Siglo XX, la Física se desarrolló plenamente. En 1904 se propuso el primer modelo del átomo. En 1905, Einstein formuló la Teoría de la Relatividad especial, la cual coincide con las Leyes de Newton cuando los fenómenos se desarrollan a velocidades pequeñas comparadas con la velocidad de la luz. En 1915 extendió la Teoría de la Relatividad especial, formulando la Teoría de la Relatividad general, la cual sustituye a la Ley de gravitación de Newton y la comprende en los casos de masas pequeñas. Max Planck, Albert Einstein, Niels Bohr y otros, desarrollaron la Teoría cuántica, a fin de explicar resultados experimentales anómalos sobre la radiación de los cuerpos. En 1911, Ernest Rutherford dedujo la existencia de un núcleo atómico cargado positivamente, a partir de experiencias de dispersión de partículas. En 1925 Werner Heisenberg, y en 1926 Erwin Schrödinger y Paul Adrien Maurice Dirac, formularon la Mecánica cuántica, la cual comprende las teorías cuánticas precedentes y suministra las herramientas teóricas para la Física de la materia condensada.[6]
Posteriormente se formuló la Teoría cuántica de campos, para extender la mecánica cuántica de manera consistente con la Teoría de la Relatividad especial, alcanzando su forma moderna a finales de los 40, gracias al trabajo de Richard Feynman, Julian Schwinger, Tomonaga y Freeman Dyson, quienes formularon la teoría de la electrodinámica cuántica. Asimismo, esta teoría suministró las bases para el desarrollo de la física de partículas. En 1954, Chen Ning Yang y Robert Mills desarrollaron las bases del modelo estándar. Este modelo se completó en los años 1970, y con él fue posible predecir las propiedades de partículas no observadas previamente, pero que fueron descubiertas sucesivamente, siendo la última de ellas el quark top.[6]
Los intentos de unificar las cuatro interacciones fundamentales ha llevado a los físicos a nuevos campos impensables. Las dos teorías más aceptadas, la mecánica cuántica y la relatividad general, que son capaces de describir con gran exactitud el macro y el micromundo, parecen incompatibles cuando se las quiere ver desde un mismo punto de vista. Es por eso que nuevas teorías han visto la luz, como la supergravedad o la teoría de cuerdas, que es donde se centran las investigaciones a inicios del siglo XXI.

Teorías centrales
La física en su búsqueda de describir la verdad última de la naturaleza, tiene varias bifurcaciones, las cuales podría agruparse en cinco teorías principales: la mecánica clásica describe el movimiento macroscópico, el electromagnetismo describe los fenómenos electromagnéticos como la luz, la relatividad formulada por Einstein describe el espacio-tiempo y la interacción gravitatoria, la termodinámica describe los fenómenos moleculares y de intercambio de calor, y finalmente la mecánica cuántica describe el comportamiento del mundo atómico.

Mecánica clásica

Giróscopo, un dispositivo mecánico.
Artículo principal: Mecánica clásica
Como mecánica clásica se conoce a la descripción del movimiento de cuerpos macroscópicos a velocidades muy pequeñas en comparación la velocidad de la luz. Existen dos tipos de formulaciones de ésta mecánica conocidas como mecánica newtoniana y mecánica analítica.
La mecánica newtoniana, como su nombre lo indica, lleva intrínsecos los preceptos de Newton. A partir de las tres ecuaciones formuladas por Newton y mediante el cálculo diferencial e integral se llega a una muy exacta aproximación de los fenómenos físicos. Ésta formulación también es conocida como mecánica vectorial y es debido a que a varias magnitudes se les debe definir su vector en un sistema de referencia inercial privilegiado.[7]
La mecánica analítica es una formulación matemática abstracta sobre la mecánica, nos permite desligarnos de esos sistemas de referencia privilegiados y tener conceptos más generales al momento de describir un movimiento con el uso del cálculo de variaciones. Existen dos formulaciones equivalentes, la llamada mecánica lagrangiana es una reformulación de la mecánica realizada por Joseph Louis Lagrange que se basa en la, ahora llamada, ecuación de Euler-Lagrange (ecuaciones diferenciales de segundo orden) y el principio de mínima acción; la otra llamada mecánica hamiltoniana es una reformulación máss teórica basada en una funcional llamada hamiltoniano realizada por William Rowan Hamilton. En última instancia las dos son equivalentes.[7]
En la mecánica clásica en general se tienen tres aspectos invariantes: el tiempo es absoluto, la naturaleza de forma espontánea realiza la mínima acción y la concepción de un universo determinado.

Electromagnetismo
Artículo principal: Electromagnetismo
Véase también: Óptica
El electromagnetismo describe la interacción de partículas cargadas con campos eléctricos y magnéticos. Se puede dividir en electrostática, el estudio de las interacciones entre cargas en reposo, y la electrodinámica, el estudio de las interacciones entre cargas en movimiento y la radiación. La teoría clásica del electromagnetismo se basa en la fuerza de Lorentz y en las ecuaciones de Maxwell.

Magnetósfera terrestre.
La electrostática es el estudio de los fenómenos asociados a los cuerpos cargados en reposo. Como se describe por la ley de Coulomb, estos cuerpos ejercen fuerzas entre sí. Su comportamiento se puede analizar en términos de la idea de un campo eléctrico que rodea cualquier cuerpo cargado, de manera que otro cuerpo cargado colocado dentro del campo estará sujeto a una fuerza proporcional a la magnitud de su carga y de la magnitud del campo en su ubicación. El que la fuerza sea atractiva o repulsiva depende de la polaridad de la carga. La electrostática tiene muchas aplicaciones, que van desde el análisis de fenómenos como tormentas eléctricas hasta el estudio del comportamiento de los tubos electrónicos.
La electrodinámica es el estudio de los fenómenos asociados a los cuerpos cargados en movimiento y a los campos eléctricos y magnéticos variables. Dado que una carga en movimiento produce un campo magnético, la electrodinámica se refiere a efectos tales como el magnetismo, la radiación electromagnética, y la inducción electromagnética, incluyendo las aplicaciones prácticas, tales como el generador eléctrico y el motor eléctrico. Esta área de la electrodinámica, conocida como electrodinámica clásica, fue sistemáticamente explicada por James Clerk Maxwell, y las ecuaciones de Maxwell describen los fenómenos de esta área con gran generalidad. Una novedad desarrollada más reciente es la electrodinámica cuántica, que incorpora las leyes de la teoría cuántica a fin de explicar la interacción de la radiación electromagnética con la materia. Paul Dirac, Heisenberg, y Wolfgang Pauli fueron pioneros en la formulación de la electrodinámica cuántica. La electrodinámica relativista da unas correcciones que se introducen en la descripción de los movimientos de las partículas cargadas cuando sus velocidades se acercan a la velocidad de la luz. Se aplica a los fenómenos involucrados con aceleradores de partículas y con tubos electrónicos funcionando a altas tensiones y corrientes.
El electromagnetismo abarca diversos fenómenos del mundo real como por ejemplo, la luz. La luz es un campo electromagnético oscilante que se irradia desde partículas cargadas aceleradas. Aparte de la gravedad, la mayoría de las fuerzas en la experiencia cotidiana son consecuencia de electromagnetismo.
Los principios del electromagnetismo encuentran aplicaciones en diversas disciplinas afines, tales como las microondas, antenas, máquinas eléctricas, comunicaciones por satélite, bioelectromagnetismo, plasmas, investigación nuclear, la fibra óptica, la interferencia y la compatibilidad electromagnéticas, la conversión de energía electromecánica, la meteorología por radar, y la observación remota. Los dispositivos electromagnéticos incluyen transformadores, relés eléctricos, radio / TV, teléfonos, motores eléctricos, líneas de transmisión, guías de onda, fibras ópticas y láseres.

Espectro electromagnético.

Relatividad

Dibujo artístico acerca de una prueba realizada con alta precisión por la sonda Cassini al enviar señales a la tierra y al describir la trayectoria predicha.
Artículo principal: Teoría de la Relatividad
La relatividad es la teoría formulada principalmente por Albert Einstein a principios del siglo XX, se divide en dos cuerpos de investigación: la relatividad especial y la relatividad general.
En la teoría de la relatividad especial, Einstein, Lorentz, Minkowski entre otros, unificaron los conceptos de espacio y tiempo, en un ramado tetradimensional al que se le denominó espacio-tiempo. La relatividad especial fue una teoría revolucionaria para su época, con la que el tiempo absoluto de Newton quedo relegado y conceptos como la invariancia en la velocidad de la luz, la dilatación del tiempo, la contracción de la longitud y la equivalencia entre masa y energía fueron introducidos. Además con las formulaciones de la relatividad especial, las leyes de la física son invariantes en todos los sistemas de referencia inerciales, como consecuencia matemática se encuentra como límite superior de velocidad a la luz y se elimina la causalidad determinista que tenía la física hasta entonces. Hay que indicar que las leyes del movimiento de Newton es un caso particular de esta teoría donde la masa al viajar a velocidades muy pequeñas no experimenta variación alguna en longitud ni se transforma en energía y el tiempo se le puede considerar absoluto.
Por otro lado, la relatividad general estudia la interacción gravitatoria como una deformación en la geometría del espacio-tiempo. En esta teoría se introducen los conceptos de la curvatura del espacio-tiempo como la causa de la interacción gravitatoria, el principio de equivalencia que dice que para todos los observadores locales inerciales las leyes de la relatividad especial son invariantes y la introducción del movimiento de un partícula por líneas geodésicas. La relatividad general no es la única teoría que describe a la atracción gravitatoria pero es la que mas datos relevantes comprobables ha encontrado. Anteriormente a la interacción gravitatoria se la describía matemáticamente por medio de una distribución de masas, pero en esta teoría no solo la masa percibe esta interacción si no también la energía mediante la curvatura del espacio-tiempo y es por eso que se necesita otro lenguaje matemático para poder describirla, el cálculo tensorial. Muchos fenómenos, como la curvatura de la luz por acción de la gravedad y la desviación en la órbita de Mercurio son perfectamente predichas por esta formulación. La relatividad general también abrió otro campo de investigación en la física, conocido como cosmología y es ampliamente utilizada en la astrofísica.[8]

Termodinámica y mecánica estadística
Artículos principales: Termodinámica y Mecánica estadística

Transferencia de calor por convección.
La termodinámica trata los procesos de transferencia de calor, que es una de las formas de energía y como puede producir un trabajo con ella. En esta área se describe como la materia en cualquiera de sus estados (sólido, líquido, gaseoso) va transformándose. Desde un punto de vista macroscópico de la materia se estudia como ésta reacciona a cambios en su volumen, presión, temperatura entre otros. La termodinámica se basa en cuatro leyes principales: el equilibrio termodinámico (o ley cero), el principio de conservación de la energía (primera ley), el aumento temporal de la entropía (segunda ley) y la imposibilidad del cero absoluto (tercera ley).[9]
Una consecuencia de la termodinámica es lo que hoy se conoce como mecánica estadística. Ésta rama estudia, al igual que la termodinámica, los procesos de transferencia de calor, pero contrario a la anterior desde un punto de vista molecular. La materia como se conoce esta compuesta por moléculas y el conocer el comportamiento de una sola de sus moléculas nos lleva a medidas erróneas. Es por eso que se debe tratar como un conjunto de elementos caóticos o aleatorios, y se utiliza el lenguaje estadístico y consideraciones mecánicas para describir comportamientos macroscópicos de este conjunto molecular microscópico.[10]

Mecánica cuántica

Esquema de una función de onda monoelectrónica u orbital en dos dimensiones.
Artículo principal: Mecánica cuántica
La mecánica cuántica es la rama de la física que trata los sistemas atómicos y subatómicos y sus interacciones con la radiación electromagnética, en términos de cantidades observables. Se basa en la observación de que todas las formas de energía se liberan en unidades discretas o paquetes llamados cuantos. Sorprendentemente, la teoría cuántica sólo permite normalmente cálculos probabilísticos o estadísticos de las características observadas de las partículas elementales, entendidos en términos de funciones de onda. La ecuación de Schrödinger desempeña el papel en la mecánica cuántica que las leyes de Newton y la conservación de la energía hacen en la mecánica clásica. Es decir, la predicción del comportamiento futuro de un sistema dinámico, y es una ecuación de onda en términos de una función de onda la que predice analíticamente la probabilidad precisa de los eventos o resultados.
Según las teorías anteriores de la física clásica, la energía se trataba únicamente como un fenómeno continuo, en tanto que la materia se supone que ocupa una región muy concreta del espacio y que se mueve de manera continua. Según la teoría cuántica, la energía se emite y se absorbe en cantidades discretas y minúsculas. Un paquete individual de energía, llamado cuanto, en algunas situaciones se comporta como una partícula de materia. Por otro lado, se encontró que las partículas exponen algunas propiedades ondulatorias cuando están en movimiento y ya no son vistas como localizadas en una región determinada sino más bien extendidas en cierta medida. La luz u otra radiación emitida o absorbida por un átomo sólo tiene ciertas frecuencias (o longitudes de onda), como puede verse en la línea del espectro asociado al elemento químico representado por tal átomo. La teoría cuántica demuestra que tales frecuencias corresponden a niveles definidos de los cuantos de luz, o fotones, y es el resultado del hecho de que los electrones del átomo sólo pueden tener ciertos valores de energía permitidos. Cuando un electrón pasa de un nivel a permitido a otro, una cantidad de energía es emitida o absorbida cuya frecuencia es directamente proporcional a la diferencia de energía entre los dos niveles.

Esquema de un orbital en tres dimensiones.
El formalismo de la mecánica cuántica se desarrolló durante la década de 1920. En 1924, Louis de Broglie propuso que al igual que las ondas de luz presentan propiedades de partículas, como ocurre en el efecto fotoeléctrico, las partículas a su vez también presentan propiedades ondulatorias. Dos formulaciones diferentes de la mecánica cuántica se presentaron después de la sugerencia de Broglie. En 1926, la mecánica ondulatoria de Erwin Schrödinger implica la utilización de una entidad matemática, la función de onda, que está relacionada con la probabilidad de encontrar una partícula en un punto dado en el espacio. En 1925, la mecánica matricial de Werner Heisenberg no hace mención alguna de las funciones de onda o conceptos similares, pero ha demostrado ser matemáticamente equivalente a la teoría de Schrödinger. Un descubrimiento importante de la teoría cuántica es el principio de incertidumbre, enunciado por Heisenberg en 1927, que pone un límite teórico absoluto en la precisión de ciertas mediciones. Como resultado de ello, la asunción clásica de los científicos de que el estado físico de un sistema podría medirse exactamente y utilizarse para predecir los estados futuros tuvo que ser abandonada. Esto supuso una revolución filosófica y dio pie a numerosas discusiones entre los más grandes físicos de la época.
La mecánica cuántica se combinó con la teoría de la relatividad en la formulación de Paul Dirac de 1928, lo que, además, predijo la existencia de antipartículas. Otros desarrollos de la teoría incluyen la estadística cuántica, presentada en una forma por Einstein y Bose (la estadística de Bose-Einstein) y en otra forma por Dirac y Enrico Fermi (la estadística de Fermi-Dirac), la electrodinámica cuántica, interesada en la interacción entre partículas cargadas y los campos electromagnéticos, su generalización, la teoría cuántica de campos, y la electrónica cuántica.
El descubrimiento de la mecánica cuántica a principios del siglo XX revolucionó la física, y la mecánica cuántica es fundamental para la mayoría de las áreas de la investigación actual.

Áreas de investigación

Física teórica

Esquema de la teoría de cuerdas.
Artículo principal: Física teórica
La cultura de la investigación en física en los últimos tiempos se ha especializado tanto que ha dado lugar a una separación de los físicos que se dedican a la teoría y otros que se dedican a los experimentos. Los teóricos trabajan en la búsqueda de modelos matemáticos que expliquen los resultados experimentales y que ayuden a predecir resultados futuros. Así pues, teoría y experimentos están relacionados íntimamente. El progreso en física a menudo resulta de que un experimento encuentra un resultado que no se puede explicar con las teorías actuales por lo que hay que buscar un nuevo enfoque conceptual para resolver el problema.
La física teórica está muy relacionada con las matemáticas. Esta suministra el lenguaje usado en el desarrollo de las teorías físicas. Los teóricos confían en el cálculo diferencial e integral, el análisis numérico y en simulaciones por ordenador para validar y probar sus modelos físicos. Los campos de física computacional y matemática son áreas de investigación activas.
Los teóricos pueden concebir conceptos tales como universos paralelos, espacios multidimensionales o minúsculas cuerdas que vibran, y a partir de ahí, realizar hipótesis físicas.

Materia condensada
Artículo principal: Materia condensada

Efecto Meissner, un ejemplo de superconductividad.
La física de la materia condensada se ocupa de las propiedades físicas macroscópicas de la materia, tales como la densidad, la temperatura, la dureza, o el color de un material. Los materiales consisten en un gran número de átomos o moléculas que interaccionan entre ellos, por lo que están "condensados", a diferencia de estar libres sin interaccionar. La física de la materia condensada busca hacer relaciones entre las propiedades macroscópicas, que se pueden medir, y el comportamiento de sus constituyentes a nivel microscópico o atómico y así comprender mejor las propiedades de los materiales.
Las fases "condensadas" más comunes son sólidos y líquidos, que surgen del enlace químico entre los átomos, debido a la interacción electromagnética. Fases más exóticas son los superfluidos, los condensados de Bose-Einstein encontrados en ciertos sistemas atómicos a muy bajas temperaturas, la fase superconductora de los electrones de conducción de ciertos materiales, y las fases ferromagnética y antiferromagnética de los spines en las redes atómicas.
La física de la materia condensada es el campo de la física contemporánea más extenso y que involucra a un mayor número de físicos. Históricamente, la física de la materia condensada surgió de la física de estado sólido, que se considera en la actualidad uno de sus principales subcampos. La expresión física de la materia condensada aparentemente fue acuñada por Philip Anderson cuando renombró en 1967 su grupo de investigación, anteriormente llamado de teoría del estado sólido. La física de la materia condensada tiene una gran superposición con la química, la ciencia de materiales, la nanotecnología y la ingeniería.

Física atómica y molecular
Artículos principales: Física atómica y Física molecular

Estructura del diamante.
La física atómica y molecular se centran en el estudio de las interacciones materia-materia y luz-materia en la escala de átomos individuales o estructuras que contienen unos pocos átomos. Ambas áreas se agrupan debido a su interrelación, la similitud de los métodos utilizados, así como el carácter común de la escalas de energía relevantes a sus investigaciones. A su vez, ambas incluyen tratamientos tanto clásicos y como cuánticos, ya que pueden tratar sus problemas desde puntos de vista microscópicos y macroscópicos.
La investigación actual en física atómica se centra en actividades tales como el enfriamiento y captura de átomos e iones, lo cual es interesante para eliminar "ruido" en las medidas y evitar imprecisiones a la hora de realizar otros experimentos o medidas (por ejemplo, en los relojes atómicos), aumentar la precisión de las mediciones de constantes físicas fundamentales, lo cual ayuda a validar otras teorías como la relatividad o el modelo estándar, medir los efectos de correlación electrónica en la estructura y dinámica atómica, y la medida y comprensión del comportamiento colectivo de los átomos de gases que interactúan débilmente (por ejemplo, en un condensado de Bose-Einstein de pocos átomos).
La física molecular se centra en estructuras moleculares y sus interacciones con la materia y con la luz.

Física de partículas o de altas energías
Artículo principal: Física de partículas

Ilustración de una desintegración alfa.
La física de partículas es la rama de la física que estudia los componentes elementales de la materia y las interacciones entre ellos como si éstas fueran partículas. Se la llama también física de altas energías pues muchas de las partículas elementales no se encuentran en la naturaleza y hay que crearlas en colisiones de alta energía entre otras partículas, como se hace en los aceleradores de partículas. Los principales centros de estudio sobre partículas son el Laboratorio Nacional Fermi o Fermilab en Estados Unidos y el Centro Europeo para la Investigación Nuclear o CERN en la frontera entre Suiza y Francia. En éstos laboratorios lo que se logra es obtener energías similares a las que se cree existieron en el Big Bang y así se intenta tener cada vez más pruebas del origen del universo.[11]
En la actualidad, las partículas elementales se clasifican siguiendo el llamado Modelo Estándar en dos grandes grupos: bosones y fermiones. Los bosones son las partículas que interactúan con la materia y los fermiones son las partículas constituyentes de la materia. En el modelo estándar se explica como las interacciones fundamentales en forma de partículas (bosones) interactúan con las partículas de materia (fermiones). Así, el electromagnetismo tiene su partícula llamada fotón, la interacción nuclear fuerte tiene al gluón, la interacción nuclear débil a los bosones W y Z y la gravedad a una partícula aún hipotética llamada gravitón. Entre los fermiones hay mas variedad, se encuentran dos tipos: los leptones y los quarks. En conjunto, el modelo estándar contiene 24 partículas fundamentales que constituyen la materia (12 pares de partículas/anti-partículas) junto con 3 familias de bosones de gauge responsables de transportar las interacciones.[12]

Astrofísica
Artículos principales: Astrofísica y Astronomía

Ilustración de como podría verse un agujero negro supermasivo.
La astrofísica y la astronomía son ciencias que aplican las teorías y métodos de otras ramas de la física al estudio de los objetos que componen nuestro variado universo, tales como estrellas, planetas, galaxias y agujeros negros. La astronomía se centra en la comprensión de los movimientos de los objetos, mientras que a groso modo la astrofísica busca explicar su origen, su evolución y su comportamiento. Actualmente los términos astrofísica y astronomía se los suele usar indistintamente para referirse al estudio del universo.
Esta área, junto a la física de partículas, es una de las áreas más estudiadas y más apasionantes del mundo contemporáneo de la física. Desde que el telescopio espacial Hubble nos brindó detallada información de los más remotos confines del universo, los físicos pudieron tener una visión mas objetiva de lo que hasta ese momento eran solo teorías.[13]
Debido a la astrofísica es un tema muy amplio, los astrofísicos aplican normalmente muchas disciplinas de la física, incluida la mecánica, el electromagnetismo, la mecánica estadística, la termodinámica, la mecánica cuántica, la relatividad, la física nuclear y de partículas, y la física atómica y molecular. Además la astrofísica esta íntimamente vinculada con la cosmología, que es el área donde se pretende describir el origen del universo.[14]

La biofísica podría describir físicamente lo que ocurre en nuestro cerebro.

Biofísica
Artículo principal: Biofísica
La biofísica es una área interdisciplinaria que estudia a la biología aplicando los principios generales de la física. Al aplicar el carácter probabilístico de la mecánica cuántica a sistemas biológicos obtenemos métodos puramente físicos para la explicación de propiedades biológicas. Se puede decir que el intercambio de conocimientos es únicamente en dirección a la biología, ya que ésta se ha ido enriqueciendo de los conceptos físicos y no viceversa.[15]
Ésta área esta en constante crecimiento, se estima que durante los inicios del siglo XXI cada vez la confluencia de físicos, biólogos y químicos a los mismos laboratorios se incremente. Los estudios en neurociencia, por ejemplo, han aumentado y cada vez ha tenido mayores frutos desde que se comenzó a implementar las leyes del electromagnetismo, la óptica y la física molecular al estudio de las neuronas.[16]

INFORMACION