Bienvenida

Hola a todos

viernes, 25 de junio de 2010

Segunda ley de la termodinámica

Lord Kelvin estuvo a un paso de poder extraer del trabajo de Carnot la segunda ley, pero no lo hizo, posiblemente distraído por la idea de explicar el fenómeno de la termoelectricidad, lo cual consiguió usando hipótesis muy audaces. Regresemos al trabajo de Carnot. De él se desprende un teorema que es la fuente de toda la termodinámica clásica: 'Todas la maquinas reversibles (de Carnot) operando entre los mismos dos cuerpos a temperaturas diferentes, tienen la misma eficiencia." El lector debe captar claramente el contenido de este resultado. Independientemente de cómo se construyan las maquinas de Carnot, sinónimo de reversibles, la sustancia con que operen, las piezas que contengan, el color con que se pinten, etc., mientras operen entre el mismo diferencial de temperaturas, su eficiencia es la misma. Aquí eficiencia se define en su forma más pedestre, el cociente entre dos cantidades, la que obtenemos de la maquina, esto es, trabajo y lo que nos cuesta (combustible), que es el calor que toma la maquina del cuerpo caliente. De aquí surge un corolario evidente: ninguna maquina térmica operando entre dos cuerpos a temperaturas diferentes puede tener una eficiencia mayor que la de una maquina de Carnot operando entre dichos cuerpos. Si ahora tomamos como convención que el calor absorbido por una maquina térmica es positivo y negativo si lo cede, Kelvin hizo notar que podríamos pensar en una maquina operando entre un conjunto discreto de cuerpos a diferentes temperaturas, absorbiendo calor de unos y cediendo calor a otros. Pudo demostrar así que la suma de los cocientes formados por el calor transferido, cedido o absorbido, entre la maquina y cada uno de los cuerpos, nunca puede ser mayor que cero y es cero solo y solo si la maquina es reversible. Tuvieron que pasar casi 25 anos para que Rudolf Clausius reconociera esta propiedad como una que automáticamente implica la existencia de otro atributo inherente a un sistema (la sustancia con que opera la maquina), al cual llamo entropía (de tropos-proceso). Hizo notar que al igual que la energía interna, la entropía solo puede definirse para aquellos estados del sistema en los cuales los atributos que lo describen no varíen con el tiempo, esto es, los estados de equilibrio, y además mostro como esta propiedad puede calcularse a partir de mediciones calorimétricas. Así pues, la entropía pasa a formar parte de los atributos conque uno puede caracterizar el estado de equilibrio de un sistema. Nótese sin embargo que el significado físico de entropía no emana de la definición (matemática) de Clausius. Usando el resultado de Kelvin, Clausius pudo además demostrar que si tomamos un sistema arbitrario, lo aislamos de sus alrededores, esto es, no permitimos que intercambie ni masa ni energía con ellos y realizamos un proceso cualesquiera entre dos estados de equilibrio del mismo, la diferencia entre las entropías de los estados final e inicial nunca puede disminuir Este resultado, conocido como ley del incremento de la entropía, es el enunciado mas general de la llamada segunda ley de la termodinámica.

Su generalización a sistema no aislados y abiertos (aquellos en los cuales puede haber intercambio de masa) fue una de las piezas más brillantes del trabajo del gran físico estadounidense J. W. Gibbs.

Hemos dejado para el final dos cuestiones que para el lector pueden no haber pasado desapercibidas. ¿Cuál es la tercera ley de la termodinámica? ¿Cuál es el significado físico de la entropía? ¿Orden, desorden o nada de esto? La omisión no es casual. Las preguntas tienen relación entre si y por eso vale la pena discutirlas simultáneamente. Curiosamente, el orden aquí seguido es, además, el cronológico, por eso es que la tercera ley, cuyo objeto es la racionalización del concepto de temperatura (Fowler 1930), lleva hoy el nombre de la ley cero de la termodinámica.

lunes, 31 de mayo de 2010

Primera Ley de la termodinámica

El primer principio de la termodinámica o primera ley de la termodinámica se postula a partir del siguiente hecho experimental:

En un sistema cerrado adiabático que evoluciona de un estado inicial A, a otro estado final B, el trabajo realizado no depende ni del tipo de trabajo ni del proceso seguido. Más formalmente, este principio se descompone en dos partes;


 
• El «principio de la accesibilidad adiabática»

El conjunto de los estados de equilibrio a los que puede acceder un sistema termodinámico cerrado es, adiabáticamente, un conjunto simplemente conexo.

• y un «principio de conservación de la energía»:

El trabajo de la conexión adiabática entre dos estados de equilibrio de un sistema cerrado depende exclusivamente de ambos estados conectados.

Este enunciado supone formalmente definido el concepto de trabajo termodinámico sabido que los sistemas termodinámicos sólo pueden interaccionar de tres formas diferentes (interacción entre la masa, interacción mecánica e interacción térmica). En general, el trabajo es una magnitud física que no es una variable de estado del sistema, dado que depende del proceso seguido por dicho sistema. Este hecho experimental, por el contrario, muestra que para los sistemas cerrados adiabáticos, el trabajo no va a depender del proceso, sino tan solo de los estados inicial y final. En consecuencia, podrá ser identificado con la variación de una nueva variable de estado de dichos sistemas, definida como energía interna Se define entonces la energía interna, U, como una variable de estado cuya variación en un proceso adiabático es el trabajo intercambiado por el sistema con su entorno:

Cuando el sistema cerrado evoluciona del estado inicial A al estado final B pero por un proceso no adiabático, la variación de la energía debe ser la misma, sin embargo, ahora, el trabajo intercambiado será diferente del trabajo adiabático anterior. La diferencia entre ambos trabajos debe haberse realizado por medio de interacción térmica. Se define entonces la cantidad de energía térmica intercambiada (calor) como Q.

Esta definición suele identificarse con la ley de la conservación de la energía y, a su vez, identifica el calor como una transferencia de energía. Es por ello que la ley de la conservación de la energía se utilice, fundamentalmente por simplicidad, como uno de los enunciados de la primera ley de la termodinámica:

La variación de energía de un sistema termodinámico cerrado es igual a la diferencia entre la cantidad de calor y la cantidad de trabajo intercambiados por el sistema con sus alrededores. En su forma matemática más sencilla se puede escribir para cualquier sistema cerrado.

La propiedad que llamamos “energía”: El término energía tiene diversas acepciones y definiciones, relacionadas con la idea de una capacidad para realizar trabajo, transformar, poner en movimiento.

Todos los cuerpos, pueden poseer energía debido a su movimiento, a su composición química, a su posición, a su temperatura, a su masa y a algunas otras propiedades.

Es muy difícil dar una definición concreta y contundente de energía, ya que la energía no es un ente físico real, ni una "sustancia intangible" sino sólo un número escalar que se le asigna al estado del sistema físico, es decir, la energía es una herramienta o abstracción matemática de una propiedad de los sistemas. Podemos medir las interacciones en el cambio de energía de un sistema, como su velocidad, su temperatura, su carga eléctrica. Debe quedar claro que la energía es una propiedad y sus diferentes manifestaciones es lo que comúnmente llamamos diferentes formas de energía. Es un error, tal vez con poca importancia pero muy recurrente, hablar de energías, como ejemplo “energías renovables”, ya que sólo existe el concepto energía (de manera singular) lo correcto será “fuentes renovables de energía.

El uso de la magnitud energía en términos prácticos se justifica porque es mucho más fácil trabajar con magnitudes escalares, como lo es la energía, que con magnitudes vectoriales como la velocidad y la posición. Así, se puede describir completamente la dinámica de un sistema en función de las energías cinética, potencial y de otros tipos de sus componentes.

En la práctica, en las situaciones no-relativistas, se tiende, en primera aproximación (normalmente muy buena), a descomponer la energía total en una suma de términos que se llaman las diferentes formas de la energía.

La energía potencial y la energía cinética son dos elementos a considerar, tanto en la mecánica como en la termodinámica. Estas formas de energía se originan por la posición y el movimiento de un sistema en conjunto, y se conocen como la energía externa del sistema. Sin duda, un tema muy importante en la termodinámica es analizar la energía interior de la materia, energía asociada con el estado interno de un sistema que se llama energía interna. Cuando se especifica un número suficiente de coordenadas termodinámicas, como por ejemplo, temperatura y presión, se determina el estado interno de un sistema y se fija su energía interna.

lunes, 17 de mayo de 2010

Tranferencia de calor

En física, entendemos que el proceso de intercambio de energía en forma de calor entre distintos sistemas es la transferencia de calor. También este proceso puede darse entre diferentes partes de un mismo sistema siempre y cuando las distintas partes del sistema se encuentres con distintas temperaturas.
El proceso de transferencia de calor se realiza de tres maneras: convección, radiación o conducción. Aunque estos tres procesos pueden llevarse a cabo simultáneamente, normalmente uno de los mecanismos predomina sobre los otros dos. Por ejemplo, el calor se transmite a través de la pared de una casa fundamentalmente por conducción, el agua de una cacerola situada sobre un quemador de gas se calienta en gran medida por convección, y la Tierra recibe calor del Sol casi exclusivamente por radiación.
La conducción es la transferencia de calor a través de un objeto sólido: es lo que hace que el asa de un atizador se caliente aunque sólo la punta esté en el fuego. La convección transfiere calor por el intercambio de moléculas frías y calientes: es la causa de que el agua de una tetera se caliente uniformemente aunque sólo su parte inferior esté en contacto con la llama. La radiación es la transferencia de calor por radiación electromagnética (generalmente infrarroja): es el principal mecanismo por el que un fuego calienta la habitación.
CONDUCCIÓN
En los sólidos, la única forma de transferencia de calor es la conducción. Si se calienta un extremo de una varilla metálica, de forma que aumente su temperatura, el calor se transmite hasta el extremo más frío por conducción. No se comprende en su totalidad el mecanismo exacto de la conducción de calor en los sólidos, pero se cree que se debe, en parte, al movimiento de los electrones libres que transportan energía cuando existe una diferencia de temperatura. Esta teoría explica por qué los buenos conductores eléctricos también tienden a ser buenos conductores del calor. En 1822, el matemático francés Joseph Fourier dio una expresión matemática precisa que hoy se conoce como ley de Fourier de la conducción del calor. Esta ley afirma que la velocidad de conducción de calor a través de un cuerpo por unidad de sección transversal es proporcional al gradiente de temperatura que existe en el cuerpo (con el signo cambiado).
El factor de proporcionalidad se denomina conductividad térmica del material. Los materiales como el oro, la plata o el cobre tienen conductividades térmicas elevadas y conducen bien el calor, mientras que materiales como el vidrio o el amianto tienen conductividades cientos e incluso miles de veces menores; conducen muy mal el calor, y se conocen como aislantes. En ingeniería resulta necesario conocer la velocidad de conducción del calor a través de un sólido en el que existe una diferencia de temperatura conocida. Para averiguarlo se requieren técnicas matemáticas muy complejas, sobre todo si el proceso varía con el tiempo; en este caso, se habla de conducción térmica transitoria. Con la ayuda de ordenadores (computadoras) analógicos y digitales, estos problemas pueden resolverse en la actualidad incluso para cuerpos de geometría complicada.
CONVECCIÓN
Si existe una diferencia de temperatura en el interior de un líquido o un gas, es casi seguro que se producirá un movimiento del fluido. Este movimiento transfiere calor de una parte del fluido a otra por un proceso llamado convección. El movimiento del fluido puede ser natural o forzado. Si se calienta un líquido o un gas, su densidad (masa por unidad de volumen) suele disminuir. Si el líquido o gas se encuentra en el campo gravitatorio, el fluido más caliente y menos denso asciende, mientras que el fluido más frío y más denso desciende. Este tipo de movimiento, debido exclusivamente a la no uniformidad de la temperatura del fluido, se denomina convección natural. La convección forzada se logra sometiendo el fluido a un gradiente de presiones, con lo que se fuerza su movimiento de acuerdo a las leyes de la mecánica de fluidos.
Supongamos, por ejemplo, que calentamos desde abajo una cacerola llena de agua. El líquido más próximo al fondo se calienta por el calor que se ha transmitido por conducción a través de la cacerola. Al expandirse, su densidad disminuye y como resultado de ello el agua caliente asciende y parte del fluido más frío baja hacia el fondo, con lo que se inicia un movimiento de circulación. El líquido más frío vuelve a calentarse por conducción, mientras que el líquido más caliente situado arriba pierde parte de su calor por radiación y lo cede al aire situado por encima. De forma similar, en una cámara vertical llena de gas, como la cámara de aire situada entre los dos paneles de una ventana con doble vidrio, el aire situado junto al panel exterior —que está más frío— desciende, mientras que al aire cercano al panel interior —más caliente— asciende, lo que produce un movimiento de circulación.
El calentamiento de una habitación mediante un radiador no depende tanto de la radiación como de las corrientes naturales de convección, que hacen que el aire caliente suba hacia el techo y el aire frío del resto de la habitación se dirija hacia el radiador. Debido a que el aire caliente tiende a subir y el aire frío a bajar, los radiadores deben colocarse cerca del suelo (y los aparatos de aire acondicionado cerca del techo) para que la eficiencia sea máxima. De la misma forma, la convección natural es responsable de la ascensión del agua caliente y el vapor en las calderas de convección natural, y del tiro de las chimeneas. La convección también determina el movimiento de las grandes masas de aire sobre la superficie terrestre, la acción de los vientos, la formación de nubes, las corrientes oceánicas y la transferencia de calor desde el interior del Sol hasta su superficie.
RADIACIÓN
La radiación presenta una diferencia fundamental respecto a la conducción y la convección: las sustancias que intercambian calor no tienen que estar en contacto, sino que pueden estar separadas por un vacío. La radiación es un término que se aplica genéricamente a toda clase de fenómenos relacionados con ondas electromagnéticas. Algunos fenómenos de la radiación pueden describirse mediante la teoría de ondas, pero la única explicación general satisfactoria de la radiación electromagnética es la teoría cuántica. En 1905, Albert Einstein sugirió que la radiación presenta a veces un comportamiento cuantizado: en el efecto fotoeléctrico, la radiación se comporta como minúsculos proyectiles llamados fotones y no como ondas. La naturaleza cuántica de la energía radiante se había postulado antes de la aparición del artículo de Einstein, y en 1900 el físico alemán Max Planck empleó la teoría cuántica y el formalismo matemático de la mecánica estadística para derivar una ley fundamental de la radiación. La expresión matemática de esta ley, llamada distribución de Planck, relaciona la intensidad de la energía radiante que emite un cuerpo en una longitud de onda determinada con la temperatura del cuerpo. Para cada temperatura y cada longitud de onda existe un máximo de energía radiante. Sólo un cuerpo ideal (cuerpo negro) emite radiación ajustándose exactamente a la ley de Planck. Los cuerpos reales emiten con una intensidad algo menor.
La contribución de todas las longitudes de onda a la energía radiante emitida se denomina poder emisor del cuerpo, y corresponde a la cantidad de energía emitida por unidad de superficie del cuerpo y por unidad de tiempo. Como puede demostrarse a partir de la ley de Planck, el poder emisor de una superficie es proporcional a la cuarta potencia de su temperatura absoluta. El factor de proporcionalidad se denomina constante de Stefan-Boltzmann en honor a dos físicos austriacos, Joseph Stefan y Ludwig Boltzmann que, en 1879 y 1884 respectivamente, descubrieron esta proporcionalidad entre el poder emisor y la temperatura. Según la ley de Planck, todas las sustancias emiten energía radiante sólo por tener una temperatura superior al cero absoluto. Cuanto mayor es la temperatura, mayor es la cantidad de energía emitida. Además de emitir radiación, todas las sustancias son capaces de absorberla. Por eso, aunque un cubito de hielo emite energía radiante de forma continua, se funde si se ilumina con una lámpara incandescente porque absorbe una cantidad de calor mayor de la que emite.
Las superficies opacas pueden absorber o reflejar la radiación incidente. Generalmente, las superficies mates y rugosas absorben más calor que las superficies brillantes y pulidas, y las superficies brillantes reflejan más energía radiante que las superficies mates. Además, las sustancias que absorben mucha radiación también son buenos emisores; las que reflejan mucha radiación y absorben poco son malos emisores. Por eso, los utensilios de cocina suelen tener fondos mates para una buena absorción y paredes pulidas para una emisión mínima, con lo que maximizan la transferencia total de calor al contenido de la cazuela.
Algunas sustancias, entre ellas muchos gases y el vidrio, son capaces de transmitir grandes cantidades de radiación. Se observa experimentalmente que las propiedades de absorción, reflexión y transmisión de una sustancia dependen de la longitud de onda de la radiación incidente. El vidrio, por ejemplo, transmite grandes cantidades de radiación ultravioleta, de baja longitud de onda, pero es un mal transmisor de los rayos infrarrojos, de alta longitud de onda. Una consecuencia de la distribución de Planck es que la longitud de onda a la que un cuerpo emite la cantidad máxima de energía radiante disminuye con la temperatura. La ley de desplazamiento de Wien, llamada así en honor al físico alemán Wilhelm Wien, es una expresión matemática de esta observación, y afirma que la longitud de onda que corresponde a la máxima energía, multiplicada por la temperatura absoluta del cuerpo, es igual a una constante, 2.878 micrómetros-Kelvin. Este hecho, junto con las propiedades de transmisión del vidrio antes mencionadas, explica el calentamiento de los invernaderos. La energía radiante del Sol, máxima en las longitudes de onda visibles, se transmite a través del vidrio y entra en el invernadero. En cambio, la energía emitida por los cuerpos del interior del invernadero, predominantemente de longitudes de onda mayores, correspondientes al infrarrojo, no se transmiten al exterior a través del vidrio. Así, aunque la temperatura del aire en el exterior del invernadero sea baja, la temperatura que hay dentro es mucho más alta porque se produce una considerable transferencia de calor neta hacia su interior.
Además de los procesos de transmisión de calor que aumentan o disminuyen las temperaturas de los cuerpos afectados, la transmisión de calor también puede producir cambios de fase, como la fusión del hielo o la ebullición del agua. En ingeniería, los procesos de transferencia de calor suelen diseñarse de forma que aprovechen estos fenómenos. Por ejemplo, las cápsulas espaciales que regresan a la atmósfera de la Tierra a velocidades muy altas están dotadas de un escudo térmico que se funde de forma controlada en un proceso llamado ablación para impedir un sobrecalentamiento del interior de la cápsula. La mayoría del calor producido por el rozamiento con la atmósfera se emplea en fundir el escudo térmico y no en aumentar la temperatura de la cápsula.

martes, 11 de mayo de 2010

Robert Boyle

Lisemore, actual Irlanda, 1627-Londres, 1691) Químico inglés, nacido en Irlanda. Pionero de la experimentación en el campo de la química, en particular en lo que respecta a las propiedades de los gases, los razonamientos de Robert Boyle sobre el comportamiento de la materia a nivel corpuscular fueron los precursores de la moderna teoría de los elementos químicos. Fue también uno de los miembros fundadores de la Royal Society de Londres.
Nacido en el seno de una familia de la nobleza, Robert Boyle estudió en los mejores colegios ingleses y europeos. De 1656 a 1668 trabajó en la Universidad de Oxford como asistente de Robert Hooke, con cuya colaboración contó en la realización de una serie de experimentos que establecieron las características físicas del aire, así como el papel que éste desempeña en los procesos de combustión, respiración y transmisión del sonido.
Los resultados de estas aportaciones fueron recogidos en su Nuevos experimentos físico mecánicos acerca de la elasticidad del aire y sus efectos (1660). En la segunda edición de esta obra (1662) expuso la famosa propiedad de los gases conocida con el nombre de ley de Boyle-Mariotte, que establece que el volumen ocupado por un gas (hoy se sabe que esta ley se cumple únicamente aceptando un teórico comportamiento ideal del gas), a temperatura constante, es inversamente proporcional a su presión.
Parece que Boyle no especificó en sus trabajos que sus experiencias de la relación entre el volumen y presión los realiza a temperatura constante, quizá porque lo hizo así y lo dió por supuesto. Lo cierto es que, en defensa del rigor científico, hay que esperar a que en 1676 otro físico, el francés Edme Mariotte (1630-1684), encuentre de nuevo los mismos resultados y aclare que la relación PV=constante es sólo válida si se mantiene constante la temperatura. Por eso la ley de Boyle está referenciada en muchas ocasiones como Ley de Boyle y Mariotte.
En 1661 publicó The Sceptical Chemist, obra en la que ataca la vieja teoría aristotélica de los cuatro elementos (tierra, agua, aire, fuego), así como los tres principios defendidos por Paracelso (sal, sulfuro y mercurio). Por el contrario, Boyle propuso el concepto de partículas fundamentales que, al combinarse entre sí en diversas proporciones, generan las distintas materias conocidas.
Su trabajo experimental abordó asimismo el estudio de la calcinación de varios metales; también propuso la forma de distinguir las sustancias alcalinas de las ácidas, lo que dio origen al empleo de indicadores químicos. Protestante devoto, Robert Boyle invirtió parte de su dinero en obras como la traducción y publicación del Nuevo Testamento en gaélico y turco.

lunes, 3 de mayo de 2010

Escala centigrada

Anders Celsius (Uppsala, Suecia, 1701-1744), fue un físico y astrónomo sueco. Profesor de astronomía en la Universidad de Uppsala (1730-1744). Supervisó la construcción del Observatorio de Uppsala, del que fue nombrado director en 1740. En 1733 publicó una colección de 316 observaciones de auroras boreales. En 1736 participó en una expedición a Laponia para medir un arco de meridiano terrestre, lo cual confirmó la teoría de Isaac Newton de que la Tierra se achataba en los polos. En una memoria que presentó a la Academia de Ciencias Sueca, propuso la escala centígrada de temperaturas, conocida posteriormente como escala Celsius.

Celsius es conocido como el inventor de la escala centesimal del termómetro. Aunque este instrumento es un invento muy antiguo, la historia de su graduación es de lo más caprichosa. Durante el siglo XVI era graduado como "frío" colocándolo en una cueva y "caliente" exponiéndolo a los rayos del sol estival o sobre la piel caliente de una persona. Más tarde el francés Réaumur y el alemán Gabriel Fahrenheit en 1714, lo graduaron respecto a la temperatura que se congela el agua a nivel del mar y en la del agua al hervir a nivel del mar, pero la escala alemana iba de 32 a 212 grados, mientras que la francesa lo hacía de 0 a 80 grados.
En 1742, Celsius propuso sustituir la escala alemana por otra cuyo manejo era más sencillo. Para ello creó la escala centesimal que iba de 0 a 100 centígrados. El punto correspondiente a la temperatura 100 °C equivalía a la temperatura de congelación del agua a nivel del mar mientras que la temperatura de 0 °C coincidía con el punto de ebullición del agua a nivel del mar. La escala, por tanto, indicaba un descenso de grados cuando el calor aumentaba, al contrario de como es conocida actualmente. Su compatriota el científico Carlos von Linneo (conocido como Linneo) invertiría esta escala tres años más tarde.
El termómetro de Celsius fue conocido durante años como "termómetro sueco" por la comunidad científica, y tan sólo se popularizó el nombre de "termómetro Celsius" a partir del s. XIX.
Fue el primero en proponer que el fenómeno de las auroras eran de origen magnético al encontrar que desviaciones de agujas magnéticas se correlacionaban con los picos de las auroras. Realizó observaciones de eclipses y otros objetos, publicó un catálogo con la magnitud de 300 estrellas con su propio sistema en el que usaba el numero de filtros necesarios para extinguir su luz.
Dentro de sus obras tenemos el Disetatio de nova methodo distantiam soláis a aterra determinando (1730), Disquisitio de observationibus pro figura telluris determinanda sn galia habitis (1738) y Arithmetics for the Swedish Youth (1741).
Murió afectado por la tuberculosis en Abril de 1744.

martes, 27 de abril de 2010

De qué trata la termodinámica

Bueyes, búfalos, camellos, y especialmente los caballos, en la antigüedad podían mover gente y bienes de un lado a otro de manera más eficiente. Sin embargo, a finales de 1700, los inventores llegaron con una gran serie de concep­tos y dispositivos que fueron responsables de la revolución industrial en Europa. Descubrieron cómo hacer que el fuego y el vapor trabajaran para ellos; esto a su vez reemplazó la potencia animal.
Imagine cómo cambió el mundo. En lugar de cuatro caballos jalando un ómni­bus urbano de doble piso, en lugar de fiarse del viento o de remeros para impulsar barcos a través del océano, en lugar de utilizar baldes y sogas para sacar el agua de una mina, existen ahora máquinas que pueden hacer todos esos trabajos con un costo mucho menor.
Esta gran revolución, la revolución industrial, dio a luz a la máquina de vapor, a la máquina de combustión interna, al motor eléctrico, al motor de reacción y a muchos otros tipos de máquinas.
Debido a esto la "habilidad para realizar trabajo" usando el vapor, el carbón, la madera, se consideró de principal importancia. ¿Cuánta madera haría el trabajo de una cubeta de carbón o de un galón de gasolina? El término energía fue acuñado entonces para denotar la "habilidad para realizar trabajo". Si algo tiene una gran cantidad de energía puede realizar grandes cantidades de trabajo. También la energía parece tener diferentes manifestaciones, como energía potencial (la pesa de un reloj), energía ci­nética, energía química, etcétera.
Hoy las máquinas usadas comúnmente en nuestras sociedades son tan efi­cientes que si desea transportar unos 1000 libros de un lado para otro, unos 160 km, y si hace esto mediante trabajo físico, acarreándolos en su espalda, su trabajo valdría menos de 2 0/hora, lo cual es un poquito menos que el salario mínimo. Desde luego las máquinas han cambiado nuestras vidas irreversiblemente.
Entonces, la termodinámica se desarrolló para estudiar la energía: cuánta de ésta hay en el carbón, madera, agua corriente, en el vapor a baja y alta presión, a baja y alta temperatura, en los huevos y en el tocino, y en las barras de caramelo. Éste es el interés de la primera ley de la termodinámica.
Pronto se descubrió que aunque gran cantidad de una forma de energía era equivalente a mucha de otra forma, no siempre se podía transformar toda la energía de una clase en otra. Por ejemplo, no se puede transformar toda la energía del vapor para producir trabajo. En las locomotoras de vapor una fracción de la energía del carbón siempre se desperdicia. ¿Con cuánta eficiencia se puede convertir la energía de una forma a otra? Sadi Carnot, un brillante jovencito de la milicia francesa, contestó esta pregunta, lo cual condujo a la segunda ley de la termodinámica.
Así, esto es lo que tenemos. La primera y segunda leyes son el principal asunto que ocupa a la termodinámica. Digamos algunas palabras acerca de esas dos leyes.
La primera ley trata acerca del intercambio de energía, o cuánto de un tipo de energía es equivalente en otro tipo de energía. Sin embargo, se encontró que en la práctica no siempre se puede hacer ese intercambio.
La segunda ley probablemente es la ley más fascinante de toda la ciencia, y Carnot sólo tocó un aspecto de esta ley. Ésta tiene que ver en toda clase de áreas. Dice qué cambios son posibles, cuáles no lo son. Detiene las máquinas de movimiento perpetuo. Dice la dirección del tiempo. Por ejemplo, si ve una película con movimiento, ¿Cómo podría saber que se está corriendo hacia adelante o hacia atrás? Sólo cuando ve algo que ejemplifica la segunda ley. La segunda ley no dice la di­rección del tiempo.La teoría de la información, la mecánica estadística, la gente al envejecer, la operación del cerebro, todo esto tiene que ver con la segunda ley. Cuando la primera y segunda leyes se combinan conducen a relaciones que dicen cuánto trabajo se encuentra en una situación dada, lo que constituye un concepto llamado disponibilidad o exergía. Por ejemplo, si hay una corriente de agua que corre hacia abajo por un lado de una montaña, podría colocar una presa y generar electricidad. Pero de la misma cantidad de agua en un pequeño lago en las llanuras de Kansas no podría extraer tanta energía. De esta forma la disponi­bilidad tiene que ver con la energía extraíble de un sistema en un ambiente par­ticular. Se debe conocer tanto el sistema como sus alrededores para ser capaz de decir qué fracción de la energía total de un sistema puede extraerse para realizar trabajo útil.
Nuestra visión del mundo en que vivimos está determinada en gran medida por el lenguaje que utilizamos para describirlo. Piense en eso. Y aquí la termo juega un papel importante. También proporciona una comprensión acerca de los cambios de la era in­dustrial la era de las máquinas. Hoy estamos en medio de una nueva revolución, la re­volución de la información. ¿Cuál es la cantidad máxima de información que puede contener un disco flexible (floppy disk)? ¿Qué tan pequeños podemos hacer los chips? ¿A qué velocidad puede transmitir información una fibra óptica? La termo llega a colo­car límites, por lo que cualquiera que trate con la energía, las transformaciones que sufre al pasar de una forma a otras, o que tenga que ver con qué cambios son o no posibles, debe comprender los conceptos vinculados con la termo. Ésta es la razón por la cual todos los ingenieros tienen que estudiar, por lo menos, sus conceptos fundamentales.

miércoles, 17 de marzo de 2010

Magnetismo

Los fenómenos magnéticos fueron observados por primera vez al menos 2500 años, con fragmentos de mineral de hierro cerca de la antigua ciudad de Magnesia (Manisa Turquía occidental). Esos trozos eran ejemplos de lo ahora llamamos imanes permanentes; es probable que en la puerta del refrigerador de su hogar haya varios imanes permanentes. Sabemos que los imanes permanentes ejercen fuerza uno sobre otro y sobre trozos de hierro que no están magnetizados. Se descubrió que cuando una varilla de hierro entraba en contacto con un imán natural la varilla también se magnetizaba, y si la varilla flotaba en agua o se suspendía de un hilo por su parte central, tendía a alinearse con la dirección norte-sur. La aguja de una brújula ordinaria no es más que un trozo de hierro magnetizado. Antes de que se entendiera la relación que había entre las interacciones magnéticas y las cargas en movimiento, las interacciones de los imanes permanentes y las agujas de las brújulas se describían en términos de polos magnéticos. Si un imán permanente en forma de barra, o imán de barra, tiene libertad para girar, uno de sus extremos señalará al norte. Este extremo se llama polo norte o polo N; el otro extremo es el polo sur o polo S. Los polos opuestos se atraen y los polos iguales se rechazan. Un objeto que contenga hierro pero no esté magnetizado (es decir, que no tenga tendencia a señalar al norte o al sur) será atraído por cualquiera de los polos de un imán permanente. Ésta es la atracción que actúa entre un imán y la puerta de acero no magnetizada de un refrigerador. Por analogía con las interacciones eléctricas, describimos las interacciones como un imán de barra que genera un campo magnético en el espacio que la rodea y un segundo cuerpo responde a dicho campo. La aguja de una brújula tiende a alinearse con el campo magnético en la posición de la aguja.
La Tierra misma es un imán. Su polo norte geográfico está cerca del polo sur magnético. Lo cual es la razón por la que el polo norte de la aguja de una brújula señala al polo norte terrestre. El eje magnético de nuestro planeta no es del todo paralelo a su eje geográfico (el eje de rotación), así que la lectura de una brújula se desvía un poco del norte geográfico. Tal desviación, que varía con la ubicación, se llama declinación magnética o variación magnética. Asimismo, el campo magnético no es horizontal en la mayoría de los puntos de la superficie terrestre; su ángulo hacia arriba o hacia abajo se denomina inclinación magnética.
Líneas de campo
Cualquier campo magnético se representa usando líneas de campo magnético, del mismo modo que hicimos para el campo eléctrico. La idea es la misma que para las líneas de campo eléctrico estudiadas con anterioridad. Se dibujan las líneas de modo que la línea que pasa a través de cualquier punto sea tan­gente al vector del campo magnético B en ese punto. Igual que hicimos con las líneas de campo eléctrico, tan sólo dibujamos unas cuantas líneas que sean re­presentativas pues, de otra manera, ocuparían todo el espacio. Donde las líneas de campo adyacentes están cerca entre sí, la magnitud del campo es grande; donde tales líneas están separadas, la magnitud del campo es pequeña. Asimismo, debido a que la dirección de B en cada punto es única, las líneas de campo nunca se cruzan.
CUIDADO Las líneas de campo magnético no son "líneas de fuerza" En ocasiones, a las líneas de campo magnético se les llama "líneas magnéticas de fuerza", aunque éste no es un nombre adecuado; a diferencia de las líneas de campo eléctrico, no apuntan en dirección de la fuer­za que se ejerce sobre la carga. La ecuación para la fuerza magnética F=qv×B muestra que la fuerza sobre una partícula con carga en movimiento siempre es perpendicular al campo magnético y, por lo tanto, a la línea de éste que pasa por la posición donde se halla la partícula. La dirección de la fuerza depende de la velocidad de la partícula y del signo de la carga, de modo que una simple mirada a las líneas de campo magnético no basta para indicar la dirección de la fuerza sobre una partícula cargada que se mueva arbitrariamente. Las líneas de campo magnético sí tienen la dirección en que apuntaría la aguja de una brújula colocada en cada sitio: tal vez esto lo ayude a visualizar las líneas.
Existen líneas de campo magnético producidas por varias fuentes comunes de campo magnético. En el espacio entre los polos del imán, las líneas de campo son aproximadamente rectas y paralelas, y están igualmente espaciadas, lo cual demuestra que el campo magnético en esta región es aproximadamente uniforme (es decir, tiene magnitud y dirección constantes). Como los patrones de campo magnético son tridimensionales, con frecuencia es necesario dibujar líneas de campo magnético que apunten hacia dentro o hacia fuera de1 plano de un dibujo. Para hacer esto se usa un punto (•) que representa un vector dirigido hacia fuera del plano, y una cruz (X) que denota que el vector se dirige hacia el plano. Veamos una manera adecuada de recordar tales convenciones: el punto semeja la cabeza de una flecha que se dirige hacia ti; en tanto que la cruz representa las plumas de una flecha apache que se aleja de de ti.
Las limaduras de hierro, como las agujas de brújula, tienden a alinearse con las líneas de campo magnético, por lo que brindan una forma sencilla de visualizar las líneas de campo magnético.

martes, 2 de marzo de 2010

Ex ungue leonis ("De las garras del león")

La garra del león es el nombre con que se conoce un celebérrimo episodio de la historia de la ciencia ocurrido en Londres el 29 de enero de 1697.
Consistió en la presentación de dos difíciles problemas matemáticos a la comunidad científica de la época, estableciéndose un plazo de seis meses para la resolución de ambos. Cumplido el plazo, solo Gottfried Leibniz había resuelto uno de los dos, y por medios matemáticamente penosos. El plazo fue extendido seis meses más, con los mismos resultados.
Pasado un año, uno de los problemas seguía sin ser resuelto, y el otro esperaba aún una solución elegante y referida al caso general. Sir Edmond Halley se percató de que Sir Isaac Newton no había sido informado del desafío, y le llevó ambos problemas. El padre de la gravitación resolvió en diez horas los dos problemas frente a los que sus contemporáneos habían fracasado durante doce meses y publicó las soluciones en forma anónima.
El organizador del concurso, Johann Bernoulli, apenas leído el texto con las soluciones, declaró estar seguro de que el vencedor era Newton. Preguntado por qué -siendo un artículo anónimo-, respondió con la célebre frase: Ex ungue leonis, figuradamente "Porque reconozco las garras del león" o "Por sus garras se conoce al león", en el sentido de que el estilo claro, conciso, brillante y definitivo de Newton era fácilmente reconocible para él.
La increíble capacidad matemática de Newton había sido puesta anteriormente a prueba en numerosas ocasiones, dos de las cuales son especialmente célebres.
Desde el siglo III a.C. los geómetras habían intentado solventar el famoso "Problema de Pappo", que consiste en determinar el lugar geométrico en que se debe localizar un punto de modo tal que el rectángulo comprendido entre sus dos distancias a dos líneas rectas esté en una proporción dada al rectángulo comprendido por las distancias a otras dos líneas también dadas. El propio Apolonio había sido derrotado por este problema. La razón era que es insoluble por métodos geométricos.
Cuando se le requirió a Newton alguna idea, respondió sin vacilar: "Es una cónica". Tomó una tiza y escribió una demostración inatacable de la afirmación anterior.
En otra oportunidad, Newton fue desafiado a obtener la trayectoria ortogonal de una familia de curvas anidadas, lo que constituía una burla encubierta, porque en esos años se creía que el problema no tenía solución. Pero Newton afirmó que sí la tenía, y que iba a tardar cinco horas en encontrarla. Con papel y lápiz, tardó exactamente ese tiempo en resolver la ortogonal. Esa demostración es la misma que se utiliza hoy en los cálculos de determinación de trayectorias.
Los dos problemas de Bernoulli fueron planteados ante los miembros de la Real Sociedad de Ciencias británica. Entre ellos se contaban, además de los citados Newton (que, como se ha dicho, no se enteró del asunto hasta un año más tarde), Leibniz, Halley y el propio Bernoulli, las personalidades siguientes: Robert Hooke, descubridor de la célula, matemático y biólogo; El Marqués de L´Hôpital, célebre matemático y autor del primer libro sobre cálculo diferencial; Christopher Wren, astrónomo, arquitecto e ingeniero; David Gregory, notable astrónomo escocés; Christiaan Huygens, matemático, físico y astrónomo; Ehrenfried Walther von Tschirnhaus, matemático alemán; Pierre Varignon, matemático francés; y muchas figuras intelectuales de similares talentos y capacidades.
Bernoulli presentó a los asociados sus dos problemas en 1696.
Halley se personó en la residencia de Newton (a petición de Leibniz) el 29 de enero de 1697 a las dos de la tarde para presentarle los problemas, a lo que el segundo respondió que más tarde los estudiaría.
A las cuatro de la madrugada Newton había resuelto ambos, y a las 8 de la mañana del 30 de enero envió las demostraciones en una carta sin firma al presidente de la Sociedad. Las soluciones eran tan elegantes y precisas que fueron publicadas en el número siguiente de la revista Philosophical Transactions, correspondiente al mes de febrero de 1697.
El primer problema fue resuelto por otros cinco matemáticos además de Newton: Leibniz, Guillaume de l'Hôpital, Tschirnhaus, Johann Bernoulli y el hermano de este, Jacob.
Como se ha explicado, la solución de Leibniz era muy trabajosa. La de Johann era elegante, pero contemplaba solo un caso particular. La de L'Hôpital parece haber sido plagiada de esta última. La de Jacob Bernoulli era algo más general que la de su hermano, pero era demasiado larga, dificultosa y sumamente aburrida. La de Newton, en cambio, es para el caso general, y se la considera concisa, simple, breve y elegante.
Nadie más que Newton consiguió resolver el segundo problema. Los dos problemas planteados fueron los siguientes:
1) Determinar la braquistócrona. (la trayectoria más rápida para que un móvil se desplace de un punto dado a otro)
2) Servirse encontrar una curva tal que si se traza una línea desde un punto dado O —que corte a la curva en P y en Q— entonces OP´ + OQ´ sea constante.

lunes, 1 de marzo de 2010

Corriente, resistencia, resistividad

GEORG SIMON OHM (1787-1854)

Físico y matemático alemán. Descubrió una de las leyes fundamentales de los circuitos de " corriente" eléctrica, conocida como “Ley de Ohm”.
Georg Simon Ohm, físico y matemático alemán, nació el 16 de marzo de 1789 en Erlangen, Bavaria. Tanto su padre, de profesión cerrajero, con una amplia cultura para la época obtenida de forma autodidacta, como la madre, se encargaron de transmitir a los hijos conocimientos de matemática, física, química y filosofía.
Hacia 1805 Georg Simon ingresó en la Universidad de Erlangen, la que abandonó después del tercer semestre, al interferir la vida disoluta que llevaba con los estudios. Por ese motivo sus padres lo enviaron a Suiza, donde comenzó a trabajar como profesor en una escuela de Gottstadt bei Nydan y continuó estudiando matemáticas.
En 1811 regresó a la Universidad de Erlangen y al concluir los estudios el gobierno de Bavaria le ofreció un puesto de profesor de matemáticas y física en una modesta escuela de Bamberg, pero como sus aspiraciones eran llegar a ser profesor universitario, decidió que a partir de ese momento tendría que demostrar su valía de alguna forma para lograr el reconocimiento del gobierno.
Seis años después recibió una oferta para impartir clases de matemáticas y física en un Liceo Jesuita de Colonia. En esa institución, con mejores condiciones materiales que en las anteriores donde había trabajado, pudo contar con un laboratorio de física bien equipado. Ahí comenzó a realizar sus primeros experimentos con electricidad después de conocer las investigaciones llevadas a cabo en 1820 por el físico danés Øersted.
Como resultado de sus investigaciones, en 1827 Georg Simon Ohm descubrió una de las leyes fundamentales de la corriente eléctrica, que hoy conocemos como “Ley de Ohm”. Esa importante ley postula que “la corriente que circula por un circuito eléctrico cerrado, es directamente proporcional a la tensión que tiene aplicada, e inversamente proporcional a la resistencia que ofrece a su paso la carga que tiene conectada”. La representación matemática de dicha ley es la siguiente:
Representación de la fórmula general de la ley de ohm para un circuito eléctrico


R =V / I (representación macroscópica de la fórmula para la ley de ohm) “Escalar”
E=r J (representación microscópica de la fórmula para la ley de ohm) “Vectorial”


Esta ley evidencia la estrecha relación existente entre el flujo o intensidad de la corriente (I) en ampere (A) que circula por un circuito eléctrico cerrado; la tensión o voltaje (V), en volt (V), que tiene aplicado y el valor de la resistencia (R), en ohm (Ω), de la carga conectada a ese circuito. En forma microscópica presenta la relación que existe entre el campo eléctrico del circuito (E), la densidad de corriente (J) y la resistividad del material (r).

Pero su trascendental descubrimiento no fue reconocido por parte de los físicos de la época, ni le sirvió tampoco para ver realizado su sueño de obtener el ansiado nombramiento de profesor universitario.
Su amargura por el poco reconocimiento recibido quedó reflejada en un escrito donde exponía el resultado de sus investigaciones, titulado “Teoría matemática del circuito galvánico”. En el prólogo aparece la siguiente cita:
“Las circunstancias en que he vivido hasta ahora no han sido, ciertamente, las más favorables para que me animasen a proseguir mis estudios; la indiferencia del público abate mi ánimo y amenaza extinguir mi amor por la ciencia”.

En marzo de 1828 decidió establecerse en Berlín y en 1833 aceptó un puesto como profesor en Nüremberg. En 1842 la Real Sociedad lo admitió como miembro al reconocer el mérito que tenían sus trabajos investigativos y en 1845 la Academia Bávara lo nombro también miembro, con plenos derechos.
Hacia 1849 George Simon Ohm comenzó a desempeñar el puesto de conservador del gabinete de física de la Academia Bávara y a impartir también conferencias en la Universidad de Munich. En 1852 logró, finalmente, ver realizado el sueño de toda su vida al ser nombrado catedrático de física esta última Universidad.
Dos años después, el 6 de julio de 1854, falleció este insigne matemático y físico en la propia ciudad de Munich de su Baviera natal (actual Alemania). En honor a su memoria, veintisiete años después de su muerte, en la Exposición Internacional de Electricidad efectuada en París, en 1881, se adoptó el “ohm” y su símbolo (Ω) (letra griega "omega") como unidad de medida de la resistencia eléctrica.

martes, 23 de febrero de 2010

Colisiones

Definición
En un choque de una partícula con masa m1 y velocidad v1, contra otra de masa m2 y velocidad v2, existe una forma de simplificar el análisis que es situarse en el sistema de referencia en que una de ellas está en reposo, por ejemplo la m2. Normalmente las colisiones en el laboratorio se estudian como una partícula que incide sobre otra en reposo, por lo que el sistema en que v2 = 0 recibe la denominación de sistema de referencia del laboratorio (LAB).
Si bien el sistema del laboratorio es el sistema en que el normalmente se encontrará el observador, el tratamiento matemático es más sencillo en un sistema que se encuentra en el centro de masas de las dos partículas que colisionan.
La definición de centro de masas para dos partículas nos lleva a:

Rcm=m1r1+m2r2/(m1+m2)

Al derivar con respecto al tiempo y considerando la relación entre velocidad y cantidad de movimiento obtenemos la siguiente relación

Pcm=p1+p2

La ecuación de definición del sistema centro de masas es entonces:

Pcm=p1+p2=0

Relación con el sistema de laboratorio
La segunda ecuación se aplica tanto al sistema del centro de masa como al sistema del laboratorio, lo que permite determinar la velocidad del sistema del centro de masa en el sistema de laboratorio:

Vcm=m1v1+m2v2/(m1+m2)

Al conocer Vcm se puede pasar del sistema centro de masas a uno en que el centro de masas esté en reposo, mediante una transformación de Galileo.

v10cm=v10L-Vcm ,
v1fcm=v1fL-Vcm,
v20cm=v20L-Vcm,
v2fcm=v2fL-Vcm.
Desarrollo de la colisión
En el sistema del centro de masa las partículas 1 y 2 se acercan una a la otra con momentos lineales opuestos p1=-p2 según se deduce de que la suma de los momentos individuales es cero. Tras una colisión elástica, la partícula 1 se desvía un ángulo θ, obteniendo un momento lineal p1f, por conservación del momento la partícula 2 se dirigirá en dirección contraria y con cantidad de movimiento p2f = -p1f
Consideremos dos partículas que se acercan entre sí a lo largo de una recta, con velocidades v1 y v2.
Las ecuaciones de conservación de la cantidad de movimiento y energía se escriben como:

m1v10 + m2v20 = m1v1f + m2v2f
½ m1v102+½ m2v202=½ m1v1f2+½ m2v2f2
Estás ecuaciones pueden reescribirse como:

m1v10 − m1v1f = m2v2f− m2v20 = > m1(v10v1f) = m2(v2f v20)
m1v210 − m1v21f = m2v22f− m2v220 = > m1(v210v21f) = m2(v22f v220)
m1(v10v1f)(v10 + v1f) = m2(v2f v20)(v2f + v20)

Dividiendo esta última ecuación entre la primera de estas últimas tres se obtiene:

v10 + v1f = v2f + v20 = > v20 − v10 = − (v2f − v1f)

Capacitancia

La capacitancia es la cualidad que tienen los diferentes tipos de condensadores para liberar una cierta cantidad de energía en un determinado momento. Hoy en día los condensadores son de mucha utilidad para la fabricación de equipos electrónicos, como radios, ordenadores, televisores, etc., ellos proporcionan el almacenamiento temporal de la energía en un circuito.
Toda la teoría sobre la capacitancia de los condensadores que hoy se conoce y utiliza, nacieron gracias a la iniciativa de el científico británico Michael Faraday, ya que en los reportes de sus experimentos “Experimental Researches in Electricity”, que fue publicado a finales de siglo XIX, logró publicar gran parte de lo que conocemos como la leyes de la electricidad y magnetismo.
Características de los capacitores eléctricos de aluminio:
Son populares debido a su bajo costo y gran capacitancia por unidad de volumen. Existen en el mercado unidades polarizadas y no polarizadas. Son del tipo de hojas metálicas, con un electrólito que puede ser acuoso, en pasta o por el contrario "seco".
La capacitancia está estrechamente relacionada con la temperatura y puede decrecer en un orden de magnitud desde la temperatura ambiente hasta (-55°C). Esta variación se reduce en capacitores de primera calidad y en productos recientes con formulaciones electrolíticas más complicadas.
No están diseñados para aplicaciones a frecuencias elevadas, y la impedancia puede alcanzar un valor mínimo a frecuencias tan bajas como 10 kHz.
La corriente de fuga disminuye durante la operación. En el uso normal, la corriente de fuga aumenta con el voltaje aplicado y con la temperatura. Como guía muy general, la corriente se duplica a medida que el voltaje aplicado se incrementa del 50 al 100% del valor nominal, y se duplica por cada 25° C de aumento en la temperatura.
Presentan un decremento gradual en capacitancia sobre un largo periodo, debido a la pérdida de electrólito a través de los sellos, aunque con los tipos recientes de empaque se ha reducido de manera significativa este deterioro, y los capacitores presentan en la actualidad un decremento del 10%, o menor, al cabo de 10 000 horas.
Otro problema que debe observarse implica el empleo de ciertos agentes limpiadores en los tableros de circuitos impresos. El cloro de los solventes de hidrocarburos halogenados, como el freón, puede penetrar por los sellos y atacar la estructura interna del aluminio, provocando la falla en poco tiempo.
Para la limpieza se recomienda xileno, alcoholes y ciertos tipos de detergentes exentos de cloro.
Característica de los capacitores eléctricos de tantalio:
Son más flexibles y confiables, y presentan mejores características que los electrolíticos de aluminio, pero también su costo es mucho más elevado.
Existen tres tipos:
Capacitores de hojas metálicas (láminas):
Se elaboran del mismo modo que los electrolíticos de aluminio
Los alambres conductores de tantalio se sueldan por puntos tanto a la lámina del ánodo como a la del cátodo, las cuales se arrollan después con separadores de papel en un rollo compacto. Este rollo se inserta dentro de una envoltura metálica y, a fin de mejorar el rendimiento, se agrega un electrólito idóneo, como etilenglicol o dimetilformamida con nitruro de amonio, pentaborato de amonio o polifosfatos.
Capacitores de hojas de tantalio
Existen en el mercado en tamaños que varían de 0.12 hasta 3 500 mF, a voltajes hasta de 450 V
La mayor parte de las aplicaciones para este tipo de capacitor se encuentran en los intervalos de voltaje superiores, en los que no es posible aplicar los condensadores de tantalio húmedo, y cuando se requieren calidades superiores a las de los electrolíticos de aluminio, a pesar del mayor costo.
Las desventajas, en comparación con otros tipos de capacitores de tantalio, son: gran tamaño, elevadas corrientes de fuga y gran variación en la capacitancia con la temperatura.
La principal aplicación de estos condensadores se encuentra en filtros de fuentes de alimentación.
Capacitores de tantalio sólido:
Parecido a la versión húmeda, en cuanto a sus etapas iniciales de manufactura.
No hay líquido que se evapore, y el electrólito sólido es estable.
La variación de la capacitancia es muy pequeña: ±10% respecto de su valor a temperatura ambiente en todo el intervalo de temperatura desde -55 hasta 125° C.
Por desgracia, ni el electrólito ni el dieléctrico presentan las cualidades de auto-reparación asociadas con otros capacitores electrolíticos.
Para proteger los condensadores de fallas tempranas debidas a defectos del óxido y del electrólito se recomienda su envejecimiento conectado durante 100 h a voltaje nominal y temperatura máxima, empleando una fuente de energía de baja impedancia. Además, se recomienda que el voltaje de operación no exceda el 60% del voltaje nominal.
Características de los capacitores eléctricos de Cerámica
Bajo costo, reducido tamaño, amplio intervalo de valor de capacitancia y aplicabilidad general en la electrónica.
Son particularmente idóneos para aplicaciones de filtrado, derivación y acoplamiento de circuitos híbridos integrados, en las que es posible tolerar considerables cambios en la capacitancia.
Se elaboran en forma de disco, como capacitores de capas múltiples o monolíticas, o en forma tubular.
El material dieléctrico es principalmente titanato de bario, titanato de calcio o dióxido de titanio con pequeñas cantidades de otros aditivos para obtener las características deseadas.
Caracteristicas de los capacitores eléctricos de papel o plástico:
El papel, el plástico y las combinaciones de ambos se utilizan en una gran variedad de aplicaciones, como filtrado, acoplamiento, derivación, cronometraje y suspensión de ruido
Son capaces de funcionar a altas temperaturas, poseen alta resistencia de aislamiento, buena estabilidad.
La propiedad de auto-reparación de las películas metálicas es bastante útil en ciertas aplicaciones.
La disponibilidad de películas extremadamente delgadas y la gran variedad de materiales proporciona la flexibilidad necesaria para un gran intervalo de aplicaciones.
La capacitancia varía con la temperatura de un dieléctrico a otro.
Los capacitores de papel y plástico pueden emplearse a altas frecuencias, según el tamaño y la longitud de las puntas.
Característica de los capacitores de mica y vidrio:
Los capacitores con dieléctrico de mica y vidrio se aplican cuando se requiere carga eléctrica alta y excelente estabilidad con respecto a la temperatura y frecuencia.
Los capacitores de mica existen en el mercado con una gran diversidad de tamaños.
Tanto los capacitores de mica como los de vidrio son estables con respecto a la temperatura. Para algunos valores de capacitancia es posible que el coeficiente de temperatura sea cero. Ambos tipos de capacitores pueden operar a alta frecuencia. La frecuencia de autoresonancia es de unos 10 MHz para grandes valores del capacitor y mayor de 100 MHz para valores más pequeños.

lunes, 15 de febrero de 2010

ALGUNAS PROPIEDADES ELECTROSTÁTICAS DE LOS CONDUCTORES

Hemos encontrado que E = 0 en el interior de un conductor en condiciones estáticas. También vimos que, como consecuencia de lo anterior, en los puntos del interior de un conductor no puede haber un exceso de carga. La carga en exceso que posea un conductor se colocará en su superficie. Obtuvimos además otro resultado interesante: el campo eléctrico justamente fuera de la superficie de un conductor tiene la dirección perpendicular a la superficie, y su valor es E =En =σ/ε0.
Además, usando el concepto de potencial, ampliamos nuestros conocimientos sobre las propiedades electrostáticas de los conductores.
Debido a que E = 0 en el interior de un conductor, en la región del espacio ocupada por un conductor el potencial debe ser uniforme. Para probar esto aplicamos la ecuación para el potencial electrostático a dos puntos a y b interiores en un conductor:
Vba= - ∫ab E∙dl
Para resolver esta integral de línea tomaremos un camino de integración com­prendido completamente dentro del conductor, de forma que E = 0 en todos sus puntos y por tanto la integral es cero, con lo que Vb = Va. Esto será cierto para cualquier par de puntos interiores al conductor, por lo que concluimos que todos los puntos del interior de un conductor tienen el mismo potencial. En particular resulta útil tener siempre presente que la superficie de un conductor en equilibrio es una superficie equipotencial.
Hasta ahora hemos hablado del potencial en un punto del espacio, pero como todos los puntos de un conductor están al mismo potencial, asignaremos un único valor de potencial al conductor completo, siempre que se encuentre en condiciones electrostáticas. Por tanto tiene significado decir que «una placa metálica está a 150 V». Por el contrario, no se puede asignar un único valor de potencial a un aislante, ya que éste puede ser distinto en diferentes puntos de su interior y de su superficie.
Consideremos una esfera metálica maciza de radio r0 que se encuentra aislada y con una carga total Q. Dicha esfera tendrá su carga distribuida en forma de densidad superficial de carga uniforme, la cual producirá un campo E como representado en función de r. El campo es cero en el interior de la esfera y disminuye como l/r2 en el exterior. Suponiendo que Q = 100 ηC y r0 = 0.1 m, tendremos
V = (9 • 109 N • m2/C2)100ηC/0.10 m= 9000 V El «potencial de la esfera» es de 9 kV.
No sólo es cierto que el campo es cero y el potencial uniforme en el interior de un conductor, sino que esto también es válido para una cavidad en el interior de un conductor, siempre que no existan objetos cargados dentro de ésta. Hemos visto que si no hay objetos cargados dentro de una cavidad de un conductor, no aparece una carga neta sobre la superficie de la cavidad. Esto no excluía la posibilidad de tener σ > 0 en una parte de la superficie de la cavidad y σ <>
Aplicaremos la ecuación para el cálculo del potencial Vba= - ∫ab E∙dl al camino entre a y b sobre la línea de campo: la integral de línea no puede ser cero porque E > 0 y E es paralelo a dl en todos los puntos del recorrido, con lo que obtenemos Va ≠ Vh. Sin embargo, sabemos que Va = Vb porque ambos puntos se encuentran en la superficie del conductor. El resultado falso Va ≠ Vb ha sido obtenido bajo las suposiciones de que E ≠ 0 en el interior de la cavidad y σ ≠ 0 en su superficie, así que debemos concluir que realmente E = 0 dentro de la cavidad y σ = 0 en todos los puntos de la superficie de ésta. Una región del espacio puede mantenerse libre de campo. Una región del espacio puede mantenerse libre de campo eléctrico rodeándola con un conductor. Este procedimiento se conoce como apantallamiento electrostático.
Supón que deseamos dotar a un conductor de una carga muy grande, y por tanto de un potencial muy alto. ¿Qué factor determina la máxima carga y el máximo potencial que puede adquirir un conductor? Para responder a esta pregunta debemos considerar el medio aislante que rodea al conductor, por ejemplo el aire. La propiedad del medio que tiene importancia en este caso se llama límite dieléctrico. El límite dieléctrico de un material aislante es el máximo valor de campo eléctrico, Emáx, que puede existir en ese material sin que se produzca su ruptura dieléctrica. Cuando ocurre la ruptura dieléctrica de un material, las moléculas que lo forman se ionizan y el material comienza a condu­cir. En un material gaseoso como el aire este efecto va acompañado de una emisión luminosa, debida a la recombinación de los electrones con las moléculas ionizadas, fenómeno conocido como corona de descarga. En ocasiones estas coronas de descarga pueden observarse de noche rodeando las líneas de conduc­ción eléctrica de alto voltaje.
Por simetría es fácil entender que en un conductor esférico la carga se distribuya uniformemente por la superficie, pero ¿qué ocurre cuando el conductor no es esférico? En general, en los conductores no esféricos la densidad superficial σ tiende a ser mayor en aquellos puntos donde la superficie tiene un menor radio de curvatura, y lo mismo sucede con el campo eléctrico justamente fuera de la superficie. En particular σ puede llegar a tener un valor muy grande en la punta de una varilla metálica en forma de aguja, como la punta de un pararrayos. Cuando el cielo se encuentra cubierto por nubes de tormenta es relativamente común observar coronas de descarga en la punta de los pararrayos. De hecho, estas coronas de descarga extienden la longitud efectiva del pararrayos y contri­buyen al efecto protector de los mismos.