La naturaleza de la física

Anthony P. French, Department of Physics,
Massachusetts Institute of Technology, Estados - Unidos.

Introducción

El mundo está lleno de experiencias que piden ser explicadas. Piense por ejemplo en los colores de un arco iris y en las pompas de jabón, en las colas de vapor de un avión volando a alta altitud, al hecho del agua, en el estado líquido, que se transforma brutalmente en hielo sólido a una cierta temperatura, en el relámpago y el trueno que se producen durante una tormenta, en la maravillosa simetría hexagonal de un pequeño copo de nieve; todos esos fenómenos así como un número infinito de otros son del dominio específico de la física. En general, la esencia de la ciencia está constituida de la observación y de la exploración del mundo que nos rodea, buscando identificar un orden o una estructura en lo que se descubre. La física es esa parte de la ciencia que trata esencialmente del mundo inanimado buscando de identificar los principios fundamentales y unificadores. La primera de esas condiciones - la del mundo inanimado - distingue al menos provisionalmente, la física de la biología; la segunda la distingue de la química que, al menos dentro de sus aspectos teóricos, toma algunos elementos de los dominios específicos de la física, pudiendo ignorar otros. Por otra parte las matemáticas, quienes a pesar de ser indispensables en la práctica de la física, son un campo de estudio totalmente diferente e independientes de las observaciones del mundo real.

El tema de este artículo puede ser abordado de maneras muy diferentes. Una de ellas es, mirar la historia del desarrollo de la física para comprender su naturaleza misma. Esto es lo que se persigue en el desarrollo de este artículo, sin pretender ser exhaustivos se abordan numerosos temas que consideramos esenciales e importantes, siendo el objetivo principal sacar a la luz el objetivo de la física y poner en relación nuestro conocimiento de los fenómenos con una cantidad mínima de principios generales.


Arquímedes y la palanca

Se puede considerar con una cierta plausibilidad que la física comenzó con la mecánica - la ciencia de las máquinas, de las fuerzas y del movimiento. Siempre ha habido una estrecha vinculación entre la física y los dispositivos prácticos, y esa vinculación estaba ya establecida dentro de la mecánica de los tiempos antiguos. El mejor ejemplo de ello puede ser la palanca, donde el principio fue reconocido por Arquímedes 250 A.C: "...pesos desiguales están en equilibrio solamente cuando ellos son inversamente proporcionales al largo de los brazos de aquellos que están suspendidos". Se trata aquí, por un caso simple de una aserción teórica construida a partir de la generalización de experiencias particulares, este tipo de generalización es característico de la naturaleza de la física. Ese resultado ha sido probablemente el primer ejemplo de una verdadera ley física. Él se convirtió en la base de un aparato de pesaje - la balanza romana (Figura 1) - que ha sido utilizada desde la época romana y que aún está vigente. Este ejemplo merece ser tratado un poco más en detalle. Verosímilmente, la puesta en equilibrio de pesos desiguales, sería al origen un problema empírico. Arquímedes, seguidamente produjo su formulación cuantitativa y general de la relación. Pero no estaba satisfecho de esto y buscó fundarla sobre uno de los conceptos más sólido empleado por los físicos - el de simetría. Arquímedes lo tomó como axioma (ciertamente, fácilmente verificable) el equilibrio entre las masas iguales ( W ) a distancias iguales ( l ) de un pivote (punto de apoyo). Seguidamente imaginó que uno de esos pesos podía ser reemplazado por dos pesos de magnitud W/2, uno sobre el punto de apoyo y el otro a una distancia 2l de ese punto. Dado que el primer peso no ejercería manifiestamente efecto de rotación sobre el punto de apoyo. Indicó que era evidente que W/2 equilibraría W colocado en l y que la ley general de la palanca podría ser inferida a partir de una extensión de ese enunciado. Este enunciado no fue válido. Si la ley de la palanca era W12l12 = W2l22, sería siempre verdadero que pesos iguales en distancias iguales están en equilibrio, pero no sería verdadero que W/2 colocado en 2l está en equilibrio con W colocado en l. La ley correcta debería ser fundada sobre observaciones efectivas con pesos desiguales. Sin embargo, cuando para su justificación, la simetría será una herramienta extremadamente útil.


(Figura 1. Medalla acuñada para Federico I (1688-1713))


De Aristóteles a Galileo: espacio, tiempo y movimiento

Igualmente antes de Arquímedes y sus trabajos en mecánica, Aristóteles (384-322 A.C), fue quien introdujo el término griego para la física dentro de nuestro vocabulario, consideró el movimiento de los cuerpos. Sin ninguna duda, el espacio y el tiempo fueron tradicionalmente los conceptos fundamentales para la descripción de la naturaleza, y la posición como función del tiempo siempre ha sido la base de nuestra descripción del movimiento. Aristóteles examinó esos puntos, pero hizo una distinción entre eso que él había considerado como el movimiento circular perfecto de las estrellas, etc., (es de hecho el reflejo de la rotación de la tierra sobre su eje y las trayectorias imperfectas de los objetos en la superficie de la Tierra. Pero esto se evidencia cuando se convierte en el objeto de la física. Aristóteles no estudió los fenómenos por ellos mismos. El formuló la célebre frase "un peso dos veces más grande caerá de la misma altura en dos veces menos tiempo"- esto hubiera podido ser refutado por una sola experiencia. La edad media asistió a un gran número de investigaciones sobre el movimiento de los proyectiles, pero es solamente en el siglo XVII que Galileo (1564-1642) estableció la descripción correcta de la caída libre y del movimiento parabólico de proyectiles, combinando experiencia y teoría. Se menciono aquí, no por el interés particular del resultado, pero porque indica otro aspecto importante de la física - la dependencia a la observación o a la experiencia. Sin una interacción directa con la Naturaleza, nosotros no podríamos tener una física científica. Se ha dicho frecuentemente que tales pruebas salidas de la observación o de la experiencia constituyen el punto de partida a partir de las cuales las teorías físicas son construidas, pero yo pienso que eso va más lejos. Todo lo que se puede decir de manera justificable es que el progreso de la física depende de una interacción continua entre la experiencia y la teoría. Puede que la teoría venga en primer lugar, y que ella sugiera las posibilidades de tests experimentales para los cuales ella sea confirmada o refutada. Un conjunto de hechos experimentales jamás conduce a una teoría fundamental que los explique, puede suceder que una experiencia indique de forma única una vinculación particular entre las cantidades observadas - por ejemplo la distancia proporcional al cuadrado del tiempo en el momento de una caída libre con la gravedad (pero esa no es la teoría de la gravitación).


Choques y primeros principios de conservación

La primera gran apertura de la física se produjo como es bien conocido en el siglo XVII, y su fundamento se basó en el estudio de los choques entre los objetos. Fue Isaac Newton (1642-1727) quien primero tomó conciencia que los resultados de tales experiencias eran coherentes con un principio único de conservación - el principio de conservación de la cantidad de movimiento * . Sin embargo, esto no permite explicar en detalle los resultados de cada tipo de choque posible.

No obstante, la conservación de la cantidad de movimiento tal (mv) no ha sido nunca transgredido dentro de los choques entre dos objetos. La formulación de ese principio pone en evidencia dos conceptos importantes:

1) El concepto de masa, definido de manera bastante intuitiva como la cantidad de materia dentro de un cuerpo.
2) El concepto de referencial físico en relación a la cual la velocidad de otros objetos podría ser medida, y podría ser considerada dentro de las experiencias de esta época (e igual dentro de las experiencias similares de hoy) como siendo suministrado por la Tierra aparentemente fija.

Esos dos conceptos han sido objetos de numerosas discusiones y de refinamientos desde este periodo. Sin embargo, esto ilustra otro aspecto muy importante de la naturaleza de la física - la aceptación de las hipótesis de trabajo que son en efecto apropiadas a un estado particular del desarrollo del sujeto, y siempre sujetas a modificaciones ulteriores. Así, por ejemplo en el siglo XVII, era conocido que la tierra no estaba inmóvil , ella giraba sobre su eje y se desplazaba alrededor del sol. Sin embargo, esos dos hechos podrán ser ignorados fuera del análisis de experiencias de laboratorio sobre las colisiones. Es a partir de los movimientos a más grande escala que esos hechos se tornaron pertinentes; introducirlos desde el principio podría conducir a complicaciones inútiles suscitando obstáculos. Otro principio de conservación importante pero menos general ha sido reconocido casi al mismo tiempo que el de la conservación de la cantidad de movimiento. Estuvo limitado a lo que se llamó los choques elásticos, para los cuales dos objetos entran en colisión se alejan el uno del otro, también energéticamente?? Al igual que cuando ellos se aproximan. Si se considera un choque a lo largo de una línea recta entre dos objetos de masas m1 y m2, y que designa las velocidades iniciales y finales por u1, u2,v1 y v2, entonces la conservación de la cantidad de movimiento es explicada por la ecuación:

m1u1+m2u2=m1v1+m2v2

Esto es válido cuando el choque es elástico o inelástico (menos que un rebote perfecto). Pero, si el choque fue elástico, la relación siguiente sería igualmente cierta:

m1u12+m2u22=m1v12+m2v22

Con el desarrollo ulterior de la mecánica, ha sido reconocida que esta segunda relación sería una expresión de la conservación de la energía cinética en el caso de los choques elásticos, donde la energía cinética de un cuerpo ha sido más tarde definida como mv2/2 y no mv2 por razones que no señalaremos aquí.

además de esos principios de conservación, otro principio físico fundamental aplicable a los choque ha sido reconocido por el gran contemporáneo de Newton, Christian Huygens (1629-1695).

Eso sería lo que llamamos hoy la equivalencia de los diferentes referenciales. El consideró un choque elástico entre dos esferas de masas iguales con velocidades iguales y opuestas (±v). Consideró que por simetría, ellos deberían retroceder con sus velocidades inversas. Imagina enseguida que un tal choque se produce sobre un barco, él mismo animado de una velocidad v por vinculación al río (Figura 2). Si el choque sería observado por un hombre de pie sobre la ribera del río, lo vería como un choque entre una esfera inmóvil y una esfera desplazándose a la velocidad 2v. Donde si el barco se desplazaba a la velocidad u, las velocidades iniciales de las esferas serían u+v y u-v. Dentro de los dos casos, las velocidades observadas por el hombre sobre la orilla serían intercambiadas por un choque. En otros términos, se puede predecir, sobre la base de un choque inicial simétrico, los resultados de todo choque entre dos objetos poseyendo una misma velocidad relativa.

Figura 2. Un choque elástico entre dos esferas vista de dos referenciales diferentes. (tomado de C. Huygens, Obras Completas, Vol. 16, The Hague: Martinus Nijhoff, 1940). (El diagrama encima del croquis fue agregado por Ernst Mach dentro de su obra, The Science of Mecanics).

Otra condición jamás explícitamente formulada estaba subyacente a todos estos fenómenos. Se trata del hecho que la masa total de los objetos en juego dentro del choque quedaría constante - el principio de conservación de la masa. Eso sería considerado como yendo de sí dentro de estos sistemas físicos, pero una formulación explícita de la conservación de la masa, basada directamente sobre la experiencia, fue enunciada un siglo más tarde, en química, desde que Lavoisier (1743-1794) lo estableció por sus reacciones químicas implicando los reacomodos de la materia más bien radicales que dentro del caso de las experiencias sobre los choques hechos por los contemporáneos de Newton.
No se trata de la última cosa que se podrá entender sobre los principios de conservación, pero antes de continuar avanzando más en esta vía, se considerarán otras cuestiones.

Causa y efecto: segunda ley de Newton

Los observadores del mundo físico siempre se interesaron en descubrir y reconocer las causas de las cosas. El ejemplo más célebre de esto puede ser el de la formulación matemática moderna de la segunda ley del movimiento de Newton -F = ma. A la izquierda, existe una fuerza; a la derecha se encuentra la masa multiplicada por la aceleración resultando la fuerza. En otros términos, el lado izquierdo interpretado como una causa, y el lado derecho como el efecto producido por esta causa. Los dos lados de la ecuación no juegan roles equivalentes. Se trata de una particularidad que no se encuentra dentro de las ecuaciones en matemáticas. Todas las ecuaciones físicas no son de esta forma. Por ejemplo, eso que es verdaderamente parecido a la más célebre ecuación de toda la física - aquella de Einstein E=mc2 - es una simple formulación de la equivalencia entre masa y energía. Pero desde que una ecuación física es la expresión de una relación de causa y efecto, ella endosa una significación particular.

La física se expande

Durante los dos siglos después de Newton, la trascendencia de la física es considerablemente más grande. Ya en este periodo, la ciencia de la óptica estuvo bien desarrollada y el mismo Newton había contribuido eficazmente. Pero, enseguida, durante los siglos XVII y XIX, el conocimiento del mundo físico se extendió para incluir otros dominios tales como el calor, el sonido, la electricidad y el magnetismo. Inicialmente, los dominios, como la mecánica, la óptica, serían considerados como campos de estudios distintos, pues se produjo un hecho muy importante: estas conexiones entre esos dominios comenzaron a ser percibidas. Por ejemplo, el sonido fue poco a poco aprehendido como la vibración mecánica de columnas de aire, de cuerdas, y así en seguida, y el calor como movimiento mecánico desordenado de los átomos y de las moléculas (igual que si los átomos en tanto que tales no pueden ser observados, existía una creencia fuerte concerniente a su existencia). Con esto se produjo un desarrollo considerable del concepto de energía y de su conservación. Se comprendió que desde que la energía mecánica parece desaparecer - como por ejemplo dentro de un choque inelástico entre dos objetos - se puede dar cuenta de las pérdidas en términos de la transferencia que se reencuentran bajo la forma de la energía térmica para los objetos en colisión, explicados por una argumentación de su temperatura. Así, la conservación de la energía devenía un principio general, igual si su prolongamiento por electricidad y el magnetismo no había aparecido inmediatamente.

A inicios del siglo XIX, las conexiones entre los fenómenos eléctricos y magnéticos habían sido descubiertas: el flujo de cargas eléctricas dentro de un hilo conductor indujo los efectos magnéticos, y la variación de campo magnético podía producir una corriente eléctrica dentro de un rizo cerrado de hilo eléctrico. Seguidamente, hacia fines del siglo, un gran físico James Clerk Maxwell (1831-1879) mostró como, unificando las ecuaciones describiendo los campos y magnéticos desde el punto de vista de las magnitudes físicas (ecuaciones a las dimensiones), pudo dar cuenta de la transmisión de la luz a través del espacio a la velocidad estupefacta de 3X108 metros por segundos - un valor que ya fue conocido por la experiencia.

El resultado final fue una formidable unificación de la física. Durante numerosos años pareció que, a medida que los nuevos descubrimientos fueron realizados, la diversidad de los fenómenos físicos se extendía sin límite. Después se llagó a ver que I que las divisiones hechas tradicionalmente entre los diferentes dominios de la física fueron de hecho el resultado de nuestra ignorancia de sus interconexiones fundamentales. Por comodidad, pero puede ser desgraciadamente, esos diferentes dominios habían continuado a estar separados. Toda vez no sería reconocido que de manera fundamental, la física sería una sola disciplina.

La naturaleza de la luz

Uno de los principales objetivos de la física es desarrollar los modelos conceptuales verosímiles, dentro de los términos de los cuales los fenómenos físicos variaron pueden ser descritos y explicados. Puede ser un ejemplo remarcable de eso, es la tentativa de encontrar un buen modelo para el fenómeno de la luz. Según los antiguos griegos, nuestra capacidad para ver un objeto dependía de la emisión de algo parecido al ojo - una idea que puede ser refutada fácilmente por la experiencia (por ejemplo, la invisibilidad de un objeto dentro de un cuarto oscuro). Otros habían pensado más verosímilmente que un objeto se vuelve visible por las virtudes de las partículas de una cierta especie emitida por el mismo objeto. La producción de sombras netas por una pequeña fuente luminosa condujo naturalmente a la imagen de la luz como un conjunto de partículas que se desplazan en línea recta desde una fuente o desde un objeto iluminado por ella. Este modelo fue reforzado por el descubrimiento de la ley de la reflexión de un rayo luminoso sobre un espejo plano - el ángulo de reflexión es igual al ángulo de incidencia. Newton ha favorecido y sostenido este modelo particular. Pero su contemporáneo Huygens concibió y alentó un modelo muy diferente - la luz consiste en ondas desplazándose a través de un medio. El consideró que la gran velocidad de la luz y la capacidad de rayos luminosos a propagarse a través de un rayo sin interacción serían las pruebas que la luz no estaba compuesta de partículas materiales. Pensó igualmente que la visión debería depender de la retina que se agitaba por la luz. Fue capaz de explicar la propagación rectilínea de la luz a partir de la superposición de las ondas circulares o esféricas que provenían de diferentes puntos sobre el frente de la onda de un haz que se propaga.

En este período pareció evidente que los modelos particular y ondulatorio fueron mutualmente exclusivos. Esto esencialmente gracias a la gran autoridad de Newton que el modelo particular ha sido generalmente aceptado, y quedó sin respuesta durante aproximadamente 100 años. Fue entonces cuando se produjo algo sorprendente. En 1801 aproximadamente, Thomas Young (1773-1829) mostró que un haz de luz, desde que es separado en dos haces que se recubren, produjo el fenómeno de interferencia - la producción de la alternancia de zonas brillantes y sombras sobre la pantalla colocada en forma de recibir la luz (Figura 3). La aparición de zonas sombrías - interferencias destructivas- fueron inconcebibles con el modelo particular; cómo una partícula de luz podría ella suprimirse por otra? Así ,el modelo particular de la luz fue abandonado, las pruebas sosteniendo el modelo ondulatorio de la luz continuó a ser acumulado durante el resto del siglo XIX. El punto culminante se produjo desde que, como ha sido mencionado dentro de la parte precedente, Maxwell mostró que él podía rendir cuenta de la propagación de la luz como una perturbación electromagnética propagándose a través de un medio que denominó éter, y que fue concebido como reemplazando todo el espacio. El triunfo del modelo ondulatorio de la luz parecía completo y permanente, pero eso no fue el caso. Lo que había sido presumido ser un caso simple de escogencia del modelo se comprobó ser una cosa muy sorprendente y misteriosa, como lo discutiremos brevemente.

Figura 3 . Un diagrama esquemático de la experiencia de Young sobre las interferencias a partir de dos hendiduras. Los lugares donde las ondas de dos hendiduras se refuerzan son mostradas por los puntos negros, los lugares donde ellas se anulan son indicados por los círculos abiertos. El esquema de interferencia tiene un máximo central y otros máximos sobre cada lado. En la práctica la longitud de la onda de la luz es realmente muy pequeña en comparación con el espacio entre las hendiduras; esto significa que las franjas de interferencia son extremadamente numerosas y muy próximas las unas de las otras.

La caja de Pandora se abre

Cuando finalizó el siglo XIX, los físicos sintieron que la física estaba terminando. Sus ingredientes primarios fueron el tiempo y el espacio absoluto, las leyes casuales de la mecánica, de la electricidad y del magnetismo (comprendiendo el modelo ondulatorio de la luz), y una imagen de la materia consistiendo en partículas discretas e indivisibles obedeciendo a esas leyes. Pero una tal suficiencia estaba a punto de ser aniquilada. En menos de diez años llegó la radioactividad, el descubrimiento del electrón, el quantum de energía y la relatividad restringida; a su manera, cada uno de esos descubrimientos llevaron a revisiones radicales de nuestra imagen del mundo físico.

La radioactividad

Este fenómeno descubierto en 1895 por Henri Becquerel (1852- 1908) tuvo como principal característica la emisión espontánea de diferentes tipos de radiaciones desconocidas a partir de los más grandes átomos conocidos de la química. La fuente de esas emisiones y de su energía fue un gran misterio, y ha sido sugerido en un momento en que el principio de conservación de la energía debería ser abandonada. De estas investigaciones ulteriores se mostró que eso no era necesario, pero un principio todavía más precioso debería ser sacrificado: la relación única entre causa y efecto. Llega a ser evidente que, dentro de un grupo de átomos radioactivos idénticos, los tiempos en los cuales ellos experimentaron una modificación para generar otro tipo de átomo fue del todo aleatorio; también lejos que fuese posible descubrirlo, no había nada que pudiese ser la causa que un átomo particular experimentarse una modificación radioactiva en un momento particular; los átomos se desintegraban espontáneamente de manera independiente. Esto ha sido establecido fuera de la experiencia por Ernest Rutherford (1871-1937), la figura dominante dentro de esos primeros tiempos de la física nuclear. Pero la física no ha cesado de ser una ciencia exacta con un inmenso poder predictivo. Más adelante discutiremos otras cosas relativas a este tema.

Los rayos X y el electrón

Durante el último decenio del siglo XIX, la mayor parte de las investigaciones se centraron sobre el tema de las descargas eléctricas dentro de los gases a baja presión. Esto se volvió en gran parte gracias al hecho del desarrollo de medios eficaces para producir el vacío - el mejor ejemplo de la manera como los avances de la tecnología influencian directamente los progresos de la física fundamental. Un lienzo entero fue observado. Puede ser que lo más espectacular haya sido el descubrimiento de los rayos X por Whilhem Conrad Roentgen (1845-1923). La capacidad de esos rayos X fue rápidamente explotado, ya que con él se lograba penetrar el cuerpo humano y develar su estructura interna. Al principio, la naturaleza de esos rayos era un misterio, pero luego de ciertos años, se estableció que se trataba de ondas electromagnéticas, como la luz, pero con una longitud de onda mucho más corta (de un factor 1000 aproximadamente). Pero detrás de los rayos X reposaba alguna cosa destinada a tener una influencia más grande sobre el curso de la física. Ellos fueron producidos por el impacto de un "blanco" sólido de eso que sería llamados rayos catódicos, emitidos por un electrodo cargado negativamente dentro de un tubo al vacío. ¿Qué son los rayos catódicos? Es Joseph Thomson (1856-1949) quien encontró que se trataba de partículas cargadas negativamente con una masa mucho más pequeña, por vinculación a su carga, a todas las otras partículas conocidas hasta entonces. De hecho, si se supone que su carga fue igual a aquella del ión de hidrógeno dentro de la electrólisis (proposición que ha sido verificada ulteriormente dentro de una experiencia), su masa era inferior de 1/1000 en la masa del átomo de hidrógeno. Es más, sus propiedades no dependían en ninguna forma del material utilizado para el cátodo (electrodo negativo) de la cual ellos provenían. La consecuencia fue que todos los átomos poseían una estructura interna comportando esas nuevas partículas, que nosotros evidentemente conocíamos desde nuestros días bajo el nombre de electrones. La antigua idea de los átomos como siendo indivisibles (la raíz griega de su nombre) nunca fue dejada atrás. Surge así la siguiente pregunta.: ¿cuáles son los otros constituyentes de la estructura del átomo, que es realmente neutro?. La pregunta no recibió respuestas convenientes sino 10 años más tarde, desde que Rutherford descubrió que la parte positiva del átomo fue un nodo con un diámetro de un factor alrededor de 10 000 veces más pequeño que el átomo entero. Nosotros volveremos a desarrollarlo en la próxima parte del artículo.

El quantum

Un conocimiento general de la radiación de los objetos calientes es tan viejo como la humanidad, sin embargo, una comprensión completa de esas propiedades no se realizó antes del alba del siglo XX. Anteriormente, se llegó a comprender que el calor radiante fue una forma de calor electromagnética, que se volvía visible cuando un objeto estaba suficientemente caliente, pero, que trae consigo igualmente una radiación de longitudes de onda mucho más grandes. El espectro de una tal radiación (intensidad en función de la longitud de onda) para un cuerpo a una temperatura dada era una curva de un aspecto poco interesante (Figura 4), donde la cima se desplazaba hacia las longitudes de onda más pobres, cuando la temperatura de los cuerpos radiantes aumentaba. Las tentativas por explicar este espectro en términos de la teoría clásica basada en las radiaciones electromagnéticas - una teoría bien comprendida - no funcionaba del todo bien.

Figura 4. Un gráfico cualitativo de la intensidad en función de la longitud de la onda o de la frecuencia de la radiación de un cuerpo caliente. Desde que la temperatura aumenta, la cantidad total de radiación aumenta y la cumbre se desplaza hacia la longitud de la onda más corta (más grandes frecuencias).

El físico alemán Max Planck (1858-1947) se encargó de encontrar una mejor explicación. Para sorpresa suya y para su decepción, llegó a la conclusión (en 1900) que la energía de un cuerpo caliente no sólo podía ser liberado sino en cantidades discretas, proporcionales a la frecuencia (inversamente proporcional a la longitud de la onda) de la radiación emitida, según la fórmula E=hf, donde f es la frecuencia y h lo que rápidamente fue conocido como la constante de Planck. El quantum nació entonces. Planck no se había arriesgado a proponer que la radiación estaba cuantificada - la teoría ondulatoria clásica de la luz conservaba siempre su supremacía- pero Albert Einstein (1879-1955)avanzó a esta hipótesis de una manera que él denominó heurística (alguna cosa que anda, pero que no estaba definida) en 1905. Las consecuencias habían sido de muy larga data, como lo veremos después.

Relatividad

Los descubrimientos en física atómica y en física de las radiaciones fueron suficientes para sacudir la física clásica dentro de su núcleo mismo, pero otras cosas estarían por venir. Desde el tiempo de Newton se había aceptado que el espacio y el tiempo eran absolutos, a pesar de que Newton reconocía nuestra incapacidad para identificar el espacio absoluto y que se hacía necesario satisfacer el estudio de los movimientos relativos. Fue entonces que en 1905, Einstein fue más lejos con su proposición revolucionaria que ni el tiempo ni el espacio eran absolutos, que ellos estaban ligados el uno al otro y que dependían de la medida hecha por vinculación a un referencial escogido, que debería ser identificado. Esto significaba, en particular, que no se podía formular de manera categórica que dos eventos que se producían en dos lugares diferentes eran simultáneos; el juicio como ellos fueran o no simultáneos dependía del referencial donde él se situaba.

Esta teoría -la teoría de la relatividad restringida- no era fundamentalmente difícil, ni complicada; dentro de una forma simplificada, ella puede ser presentada nada más que con el álgebra de la enseñanza secundaria. Su postura es conceptual, porque se exige que nosotros abandonemos nuestras ideas intuitivas con las cuales habíamos crecido . Esto no es un problema banal, pero es más rápido volver evidente a los contemporáneos de Einstein (al menos para mucho de ellos) que la nueva teoría tenía un poder predictivo innegable. El retardo de un reloj de pared se desplazaba por vinculación a nosotros, por ejemplo, parece ser de la ciencia ficción - y es el caso para la forma de la "paradoja de los gemelos" con un viajero humano que permanecía joven cuando su hermano sobre la tierra envejecía, toda vez, el efecto fundamental estuvo directamente confirmado por las observaciones utilizando los relojes de pared atómicos precisos transportados alrededor de la tierra dentro de los aviones comerciales de reacción.

Un aspecto de la relatividad que estaba particularmente molestando a los tradicionales era su rechazo de la existencia de un referencial único preferido. Tal referente estaba supuestamente definido por eso que Huygens llamó éter - el medio hipotético que estaba considerado como esencial al transporte de la luz y a todos los otros tipos de ondas electromagnéticas. La noción de ondas que no exige ningún medio material para transportar las vibraciones fue considerada como un absurdo. Pero el fracaso de todas las experiencias en detectar el movimiento de la tierra a través de ese medio fue uno de los argumentos importantes a favor de la exactitud de las ideas de Einstein. Los físicos debían habituarse a la idea que las ondas electromagnéticas no habían necesitado un medio para ondular; esta imagen era necesarias solamente si uno exige un modelo puramente mecánico de la propagación de las ondas. Dentro de la última parte del siglo XIX, la mayor parte de los esfuerzos han llevado sobre la creación de tales modelos mecánicos, hasta los que Einstein los llamó superfluos.

El átomo nuclear

Cerca de los inicios del siglo XX fue aceptado poco a poco que los átomos eran objetos con un diámetro cercano al orden de 10-10 m. Una razón importante de esta creencia fue el conocimiento del valor del cuadro de Avogadro - el número de átomos o de moléculas dentro de un mol de un elemento - que había sido inferido de fenómenos como la viscosidad de los gases y que emergía igualmente del análisis teórico que Planck des las radiaciones térmicas. (Notamos una vez más las interconexiones de los dominios de la física!). Suponiendo que dentro de los materiales como los metales, los átomos estaban amontonados al máximo, era justo un problema de geometría para deducir el diámetro aproximativo de un átomo individual.
Luego que el electrón fue descubierto y que la intensidad de su carga eléctrica fue reconocida, la teoría electromagnética clásica podría ser utilizada para deducir que su diámetro era del orden de 10-14 m2.

Dado que ese número y el hecho que los electrones representan aproximadamente 1/10 000 de la masa de un átomo, era natural figurarse al átomo como una bala de material cargado positivamente con un diámetro de alrededor 10-10 m, con los electrones prácticamente puntuales insertados dentro de aquel. Ese fue el modelo que inventó J.J. Thomson. Existían problemas variados con ese modelo; uno de ellos era su incapacidad de explicar las longitudes de onda de la luz emitida por los átomos.

Seguidamente, en 1911, la situación se volteó completamente desde que, como ya lo hemos mencionado, Ernest Rutherford descubrió, a partir de las desviaciones importantes experimentadas por las partículas alfa (átomos de Helio ionizados) cuando ellas atraviesan las finas capas de metal, que la mayoría de la masa de un átomo de un material como el oro o la plata estaba concentrada dentro de un rayo de alrededor 10-14 m.

A partir de esta teoría, Niels Bohr (1885-1962) en 1913 propuso su célebre modelo del átomo como una especie de sistema solar en miniatura, con los electrones gravitando semejante a los planetas alrededor del núcleo positivo. Ninguna otra persona, aparte de Bohr, era más consciente de la naturaleza arbitraria de ese modelo. Él simplemente postuló sin ninguna justificación teórica, que los electrones sobre su órbita no emitían ninguna luz ( lo que debían hacer siguiendo la teoría electromagnética clásica). El sugirió igualmente, con una utilización ingeniosa de ideas de Planck sobre la cuantificación de la energía, que esas órbitas estaban limitadas y correspondían a un número discreto de rayos. Se trataba realmente de una minuciosa teoría de la fortuna - pero funcionaba. Ella explicaba triunfalmente los espectros de luz emitidos por el átomo de hidrógeno y predecía otros conjuntos de rayas de hidrógeno (en los rayos ultravioleta e infrarrojo) que no habían sido aún observados.

Sin embargo, la teoría tenía severos límites. Ella tuvo poco éxito para interpretar otros espectros diferentes a los del hidrógeno y de los sistemas llamados "hidrogenoides" - esos que poseían un solo electrón exterior para producir una radiación, como ciertos iones positivos. Eso no era ciertamente la última palabra. Fue un hecho interesante que Bohr, como Planck, no creía que la luz en si misma estaba cuantificada, hasta que se convenció, años más tarde, por la prueba directa aportada por la experiencia de choques entre los "quantas" de luz y de los electrones (el efecto Compton).


Dualidad energía-materia

Vimos cómo las ideas de las gentes sobre la naturaleza de la luz fluctuó entre un modelo particular y un modelo ondulatorio. Pareció evidente que esos dos modelos eran particularmente exclusivos. Las propiedades ondulatorias de la luz no podían seguramente ser negadas. Pero entonces, muy pronto en el siglo XX, las experiencias fueron conducidas bajo el efecto fotoeléctrico -la eyección de electrones de metales bajo el efecto de la luz- dentro de la lógica de la proposición de Einstein que la energía de la luz era emitido y absorbida en minúsculos paquetes - (quanta) - que deberían ser llamados fotones. En otras palabras, la luz tiene propiedades que comprenden estas partículas y las ondas. Esa era una idea totalmente nueva.

Seguidamente, 20 años más tarde, Louis de Broglie (1892-1987) logró una etapa proponiendo la sugestión complementaria que los electrones, que sin equivocación fueron aceptados como las partículas, deberían tener propiedades similares a la de las ondas, con una longitud de onda igual a h/p, donde h es la constante de Planck y p es la cantidad de movimiento mv. En el espacio de algunos años, eso se confirmó igualmente.. Los electrones teniendo una energía dada eran difractados por los enrejados de cristal, de la misma manera que los rayos X (Figura 5). En otras palabras, nuestra categorización reconocía los elementos de base del mundo físico cesaba de aplicarse a nivel atómico. De hecho, a ese nivel, nuestro lenguaje ordinario, con todas sus asociaciones acostumbrados simplemente se fundió. Fue necesario aceptar un fotón o un electrón simplemente por eso que era, definido no por las palabras de nuestro propia creencia, sino por su comportamiento.


Rayos X electrones

Figura 5. Un par de fotografías mostrando la difracción de los electrones y de los rayos X de longitudes de ondas similares. Esas formas de anillos son obtenidas desde que el haz de electrones o de rayos X pasa a través de una fina hoja hecha de pequeños cristales de un material (aluminio) orientados de manera aleatoria dentro de todas las direcciones. Las ondas difractadas (partículas) son recibidas sobre una placa fotográfica del otro lado de la hoja (según A.P. French y Edwin F. Taylor, Introduction to Quantum Physics, New York: W.W. Norton . 1978.)

Poco tiempo después, se descubrió que todos los tipos de objetos físicos que habían recibido la etiqueta de partícula - neutrón y protones y todos los tipos de átomos neutros o de moléculas - poseían igualmente esta propiedad ondulatoria, con una longitud de onda dada por la fórmula de De Broglie.


El mundo de la física cuántica

El aspecto aleatorio de la radioactividad y la dualidad onda/partícula podría simplemente no estar adaptada a la estructura de la física clásica, sin embargo está claro que la imagen clásica funcionaba bien en muchos casos. ¿Qué se debería hacer? La respuesta fue facilitada por dos teóricos brillantes, Werner Heisenberg (1901 - 1976) y Erwin Schroendinger (1887 - 1961). En 1925 - 1926, con las aproximaciones muy diferentes, que no fueron al principio reconocidas como equivalentes, Heisenberg y Schroendinger crearon la nueva ciencia de la mecánica cuántica.

La aproximación de Schroedinger fue la más simple en apreciar, y se funda directamente sobre la dualidad onda/partícula que se describió anteriormente. Aceptando el carácter ondulatorio atribuido a las partículas por de Broglie, Schroedinger fue capaz de construir una ecuación que conduciría a la solución de una gran variedad de problemas atómicos. (Esta versión de la mecánica cuántica fue denominada mecánica ondulatoria). Existía fuerte similitud con la acústica. Nosotros sabemos que al aire libre, un sonido de no importa cual longitud de onda o frecuencia puede ser transmitido, pero que, dentro de un espacio cerrado, tal como el interior de un cuarto de habitación o dentro del cuerpo de un instrumento de viento, sólo son posibles algunas longitudes de onda y frecuencias. Igualmente, en el vacío, los electrones de no importa cual longitud de onda son posibles, pero el interior de un átomo es como un recinto cerrado, con muros relativamente esponjosos, definidos para los electrones por la atracción del núcleo positivo. Los electrones no poseen una cantidad de energía suficiente para escaparse , estando limitados a cantidades de energía discretas. Los resultados de la teoría de Bohr sobre el átomo de hidrógeno surgen natural y automáticamente de este modelo, siendo aplicable a otros numerosos sistemas atómicos.

Quedaba una pregunta fundamental: ¿qué son esas ondas? Esta pregunta ha sido la más frecuentemente discutida dentro de un contexto análogo en la primera experiencia de Tomás Young con las dos hendiduras sobre la interferencia de la luz. Podemos imaginar una experiencia similar hecha con dos electrones ( en efecto 35 años después que la mecánica ondulatoria fue inventada, una experiencia tal fue realizada). No importa que esta experiencia sea realizada con la luz o con los electrones (u otras partículas), los principales elementos son los mismos.

Discutamos en término de luz, porque esto es accesible para todos, sin importar que los haces de electrones no lo sean. Si la intensidad de la luz es elevada, tenemos un esquema clásico de interferencia de ondas, con variaciones débiles de la intensidad entre las mínima y máxima medidas por ejemplo con un interferómetro. Pero si la intensidad de la luz es reducida a un nivel extremadamente débil, y si el interferómetro es reemplazado por un aparato extremadamente sensible que puede detectar un fotón individual (un tubo fotoeléctrico multiplicador) entonces el resultado sorprendente aparece. La experiencia puede ser hecha a condición que un solo fotón a la vez atraviese el aparato. Desde que él llega a un punto particular de la pantalla del detector - es detectado como una partícula. Su punto de llegada sobre la pantalla es completamente impredecible. Sin embargo, si los millones de fotones atraviesan sucesivamente el sistema, la distribución de los impactos individuales crea la figura clásica de interferencias. El punto esencial es que cada fotón atraviesa de cierta manera las dos hendiduras e interfiere con él mismo; eso es, al menos, la forma ingenua de dar cuenta de los resultados de la experiencia. ¿Eso significa literalmente que los fotones se separan? La respuesta es no; alguna cosa más sutil está en juego.

Si se trata de descubrir a través de cuál hendidura pasa el fotón; la figura de interferencia desaparece. Para describir tal fenómeno, Bohr introdujo el concepto de lo que él llamó la complementariedad. Los aspectos ondulatorio y particular de los fotones son complementarios. Ellos son detectados como partículas en un cierto punto, pero su movimiento después de la fuente del detector es descrita por una ecuación de onda. Fue Max Born (1882 - 1970) quien propuso que las ondas de Schroendinger serían ondas de probabilidad (o para ser más exactos, una amplitud de probabilidad, la raíz cuadrada de una probabilidad). En contra de los numerosos rechazos, esta interpretación resistió la prueba del tiempo. Esto es un extraño resultado que ha levantado numerosas preguntas, como el reconocimiento de los físicos. Entre otras cosas, eso indica la asociación estrecha entre la física y las matemáticas - un fenómeno que estaba sujeto a un ensayo llamado "the unreasonnable effectiveness of mathematics in the natural science" por el distinguido teórico Eugenio Wigner (1902 - 1995).

Un comentario suplementario es apropiado en este momento. Los fenómenos como la radioactividad muestran que los eventos individuales en la escala atómica pueden tener una propiedad aleatoria. ¿Significa esto que la física ha dejado de ser totalmente una ciencia exacta? La respuesta es "no"! El desarrollo de la física clásica nos ha conducido a creer que todos los tipos de eventos individuales estaban sometidos a leyes causales estrictas. Los fenómenos cuánticos nos han impuesto a reconocer eso que no era verdad. Pero queda verdadero que el comportamiento estático de grandes poblaciones de sistemas atómicos idénticos es rigurosamente predecible. Eso no es en si una idea nueva, a pesar de que su utilización en física fundamental sea nueva. Es conocido por todos el hecho que las propiedades de grandes poblaciones humanas necesitan descripciones y predicciones precisas, aún cuando esto no sea válido para un caso individual. Así, por ejemplo, las compañías de seguros pueden fundar su trabajo sobre un saber muy bien definido de distribución de duración de vida de hombres, a pesar de que no se pueda predecir el destino de un hombre en particular. Sin embargo, las predicciones estadísticas de la física cuántica son excesivamente más precisas que cualquier situación humana.


Al interior del núcleo

Es por todos conocidos el hecho que los constituyentes fundamentales de los núcleos atómicos son eso que se ha llamado los nucleones - protones y neutrones. El protón, núcleo del átomo de hidrógeno, es conocido aproximadamente desde 1910. La existencia de su compañero de masa aproximadamente idéntica, el neutrón fue sugerido por Rutherford en 1920 y había sido establecido experimentalmente por James Chadwick (1891 - 1974) en 1932. El nuevo campo de la teoría nuclear había nacido e se acrecentaría rápidamente. Así mismo, fue rápidamente reconocido un tipo de fuerza que hasta ese momento era desconocida. Antes del reconocimiento de las fuerzas nucleares, todos los fenómenos físicos conocidos eran solamente explicables en términos de dos tipos de fuerzas fundamentales - gravitacionales y electromagnéticos. La gravedad que es intrínsecamente una fuerza extremadamente débil, se vuelve importante, desde que ella es ejercida por los cuerpos más conocidos, como la Tierra. Todas las otras fuerzas podrían ser descritas en términos de interacciones eléctricas y magnéticas. Las fuerzas nucleares son de una inclinación extremadamente corta - su efecto se extiende apenas más allá del límite del núcleo atómico y no juega, por tanto, ningún rol dentro de todas las interacciones entre los diferentes átomos. Es solamente dentro de la circunstancias fuera de nuestra propia experiencia - en el centro de las estrellas y más allá, dentro de los objetos tales que las estrellas en un neutrón compuestos de nucleones estrechamente juntos - que las fuerzas nucleares juegan un rol central . Se reconoció que existe dos tipos de fuerzas nucleares, simplemente denominadas fuertes y débiles. La fuerza fuerte es esa que mantiene unidos los protones y los neutrones dentro del núcleo, contra la repulsión eléctrica de los protones; la fuerza débil es el agente situado detrás de ciertas formas de desintegración radioactiva. No consideramos en detalle ninguna de esas dos fuerzas; es suficiente saber que ellas existen.

Una vez que la imagen de la estructura nuclear en términos de neutrones y protones ha sido bien establecida, la atención de numerosos físicos es puesta en la escala inferior - la estructura interna posible de los nucleones. La búsqueda ocasiona la construcción de aceleradores cada vez más grandes, actuando como las fuentes de partículas cada vez más energéticas -actuación de los electrones - como sondas. Una razón primordial de esa necesidad para las energías cada vez más grandes reside dentro de la relación de De Broglie: la longitud de onda es igual a la constante de Planck dividida por la cantidad de movimiento. Los aceleradores modernos de partículas son como los microscopios para el estudio de objetos pequeños de muchas potencias de 10 y que no puede ser examinada por un simple microscopio óptico. Para ello, se necesitan longitudes de onda más pequeñas de un factor similar a esos de la luz visible, y la sola manera de lograrlo es aumentar la cantidad de movimiento y la energía de partículas. Esta investigación generó al principio eso que parecía ser una lista infinita de partículas nuevas y exóticas (de débiles duración de vida), donde la mayor parte de ellos, no eran los componentes fundamentales de la materia nuclear. Pero seguidamente, en 1964, fue hecha la proposición que los nucleones estaban compuestos por una tripleta de quarks - un nombre que le había sido dado por su inventor, Murria Gell-Mann (1929 - ). Las consecuencias de esta teoría eran de un alcance considerable y se extendían más allá de la constitución interna de los nucleones. Esas son esencialmente las partículas "pesadas" conocidas (es decir otras diferentes al electrón y sus padres, como el neutrino) que pueden ser concebidos como una combinación de dos o tres (quarks). Argumentos sofisticados de simetría estuvieron implicados dentro de todo análisis, que habían conducido a la predicción de una partícula que no había sido observada, una suerte de estado excitado del nucleón. Una predicción exitosa como esta, como se ha dicho, es un criterio importante para una buena teoría.


El dominio de la materia condensada

Hay naturalmente en física más que la investigación de nuevas partículas fundamentales. En efecto, la cantidad de personas trabajando dentro de ese campo de investigación es relativamente débil en comparación con la cantidad de personas vinculadas dentro de los diferentes aspectos de eso que se llamó la física de la materia condensada - esencialmente la física de los sólidos. Hasta en la invención de la teoría cuántica, las propiedades de los materiales sólidos - por ejemplo, que ellos son transparentes u opacos en la luz. s conductores o aislantes eléctricos - eran simplemente sujetos de estudios empíricos. Eso no significa que ese campo estuvo inexplorado. En efecto, para los sólidos cristalinos en particular, la utilización de los rayos X ha conducido a una imagen muy detallada y precisa del arreglo de los átomos. Pero las razones de sus propiedades físicas quedaban en gran parte en un misterio.

Los primeros cálculos en mecánica cuántica se referían a los estados de energía de los electrones dentro de los átomos individuales. La etapa siguiente ha insistido en considerar cómo esos estados de energía cambiarían si los ensamblajes de átomos similares estaban más y más próximos los unos de los otros. Se descubrió que, ciertas fracciones de electrones no serían más vinculados a un átomo en particular, pero serían divididas por lo extenso del conjunto. Dentro de ciertos casos, eso significaría que el ensamblaje se convertiría en un buen conductor eléctrico , y dentro de otros, eso se volvería un aislante. Hay casos intermedios - los semiconductores. Se comprendió que esas propiedades estaban controladas por el intermediario de la adición de otros tipos de átomos - eso que se llama drogarse. Así llegó el transistor y enseguida toda la ciencia de la electrónica del estado sólido, que domina desde ahora nuestras comunicaciones y la tecnología informática. El transistor fue inventado en 1947 por Jhon Bardeen (1908 - 1991), Walter Brattain (1902 - 1987) y William Shockley (1910 - 1989).

Otro dominio importante de la física de la materia condensada es la de las bajas temperaturas. Los físicos nucleares y de las partículas se interesan por la explotación de las propiedades de la materia a energías cada vez más elevadas, los físicos de las bajas temperaturas estarían interesados por los fenómenos produciéndose en las más bajas temperaturas accesibles, dentro de una región próxima de las millonésimas de grado por debajo del cero absoluto. En términos de energía por partícula, ese es un factor de más o menos 1022 (10,000,000,000,000,000,000,000,) menos que la más alta energía realizable en los aceleradores de partículas modernas. Bajo condiciones menos extremas, pero siempre dentro de una zona de bajas temperaturas (en poco más o menos 100 grados por debajo del cero absoluto), numerosas investigaciones han sido conducidas sobre el fenómeno de la supraconductividad eléctrica, por la cual la resistencia eléctrica de ciertos materiales cae a cero. Las posibilidades prácticas presentadas por ese comportamiento son inmensas, sobretodo si se encuentran materiales para los cuales la supraconductividad puede estar realizada alrededor de la temperatura ambiente.

Masers y lasers

Hemos descrito como la teoría de los sólidos se desarrolló a partir de las consideraciones de lo que pasa cuando un número importante de átomos interaccionan por intermedio de intercambios de quanta de radiaciones. Eso puede producirse dentro del estado sólido condensado pero también dentro de los gases a baja temperatura - igual dentro del vacío relativo del espacio interestelar - y la explotación controlada de ese fenómeno hizo posible la invención del láser. Esto constituye otro ejemplo digno de interés, de la manera como la física fundamental puede conducir a una contribución mayor para la tecnología.

Una vez más, la historia comienza con Einstein. En 1916 había desarrollado un nuevo método de derivación de la fórmula de Planck para el espectro de radiación de un objeto caliente. Era ya reconocido que un quantum de radiación sería emitido espontáneamente por un átomo dentro de un estado excitado de energía si él cae en un estado de más débil energía. Era igualmente reconocido que un átomo dentro de un estado más bajo pueda ser elevado a un estado mayor si un quantum de luz con una energía adecuada es lanzada sobre ese átomo y que él es absorbido. A esto, Einstein a agregado una eventualidad suplementaria - que la transición de un átomo de su estado excitado a un estado más bajo podría ser reforzado si ella proviene de un fotón de energía similar a esa que el habría espontáneamente emitido - un proceso de emisión estimulada. Ese proceso podría conducir a la aparición de dos quanta de una cierta energía, donde no existía con anterioridad sino uno solo., de manera que, si se arranca con una gran población de átomos en el estado excitado, había una posibilidad de una reacción en cadena; un solo fotón incidente teniendo la buena energía podría dar lugar a una gran explosión de radiaciones de frecuencia y longitud de ondas idénticas. Ese era el concepto de láser.
Esto fue aplicado realmente en 1953 por Charles Town (1915 - ) y sus alumnos, por la utilización de radiaciones de longitud de onda teniendo aproximadamente 1 cm emitido y absorbido por moléculas de amoníaco, esto está dentro del dominio de las radiaciones electromagnéticas llamadas las micro-ondas. Charles Town y sus alumnos habían decidido llamar a su invención un maser - Microwave Amplification by Stimulation Emission of Radiation. Siete años más tarde un aparato idéntico utilizando la luz visible fue creado por Theodore Mainman (1927 - ). El término "micro-onda" fue reemplazado por "luz" dentro del acrónimo inventado por Townes y sus colegas, y así el láser adquirió su nombre. Su característica más evidente es la estupefacta pureza de la luz emitida en comparación con la luz emitida por la misma transición atómica dentro de una fuente de luz ordinaria. Con esto se encuentra la posibilidad de producir un haz luminoso de una gran intensidad y de una divergencia angular muy débil, de tal manera que fue posible colocar los reflectores sobre la luna y observar la luz que ellos enviaban por vinculación a la posición de la fuente del láser sobre la Tierra.

Plasmas
A pesar de que este tema no implica ningún nuevo concepto fundamental, ninguna vista del conjunto de la física sería completa sin al menos una breve mención de eso que se llama plasma. Un plasma es, por esencia, un gas elevado a una temperatura tan grande que una gran parte de esos átomos pierden un electrón, convirtiéndose en iones positivos. Los electrones negativos quedan dentro del sistema, que es entonces neutro dentro de su conjunto. Una luz fluorescente es un ejemplo usual de plasma. El no se siente caliente al toque, pero su temperatura eléctrica, medida como la energía de los electrones libres, puede corresponder a decenas de miles de grados.

El plasma ha sido nombrado el "cuarto estado de la materia". Igual si (sólo para los fenómenos naturales tales como los relámpagos y la aurora) de las etapas especiales deben estar seguidas para crearlas sobre tierra - esencialmente las descargas eléctricas en los gases - la mayor parte de la materia visible en el universo está en el estado de plasma. En la práctica, la integralidad del volumen de una estrella normal está en el estado de plasma, con una temperatura próxima a las decenas de millones de grados. Por esto es importante incluir los plasmas dentro de toda discusión del mundo físico. Toda vez, el interés particular que nosotros damos a los plasmas sobre la tierra es en relación con la posibilidad de su utilización para generar la energía "propia". La idea es alcanzarlo creando un plasma de ciertos elementos ligeros - en particular los isótopos del hidrógeno de masa atómica 2 y 3 - y de dar el sistema suficientemente caliente para producir las reacciones de la fusión nuclear. De los trabajos dentro de esta dirección que han sido realizados después de 50 años. El éxito siempre pareció cruelmente próximo; se piensa actualmente que se podría obtener una potencia útil de los plasmas a partir de mediados del siglo XXI.

El objetivo de la unificación

Lo reseñado hasta el momento ha indicado que los físicos fueron llevados a reconocer cuatro tipos de fuerzas diferentes: gravitacionales, nucleares, débiles electromagnéticas y nucleares fuertes. (Arregladas de esta manera, ellas son dentro de un orden creciente de pujanza). El sueño de numerosos físicos teóricos ha sido el de encontrar las bases para combinar todas estas fuerzas en el seno de una sola teoría unificada de las fuerzas. Einstein trabajó vanamente durante años, hasta su muerte en 1955, combinando la gravitación (que fue el objeto de su teoría de la relatividad general) con el electromagnetismo. Otros habían continuado sus investigaciones. Uno de los principales éxitos, en 1967, es la teoría que unificó las interacciones electromagnéticas y nucleares débiles; ella fue elaborada independientemente por Abdus Salam (1926 - 1996) y Stephen Weinberg (1933 - ). En el momento que hicimos este escrito (1996) no ha habido más avances claros sobre este punto. Sugerencias interesantes han surgido sobre el hecho que las fuerzas nucleares fuertes fusionaban con las fuerzas débiles y electromagnéticas en los primeros tiempos del nacimiento de nuestro universo, cuando (según el modelo del "big bang") la temperatura era más elevada en un factor gigantesco que todas aquellas que pueden existir en nuestros días. La fuerza gravitacional, en contra de numerosos esfuerzos, quedó fuera de la estructura de las otras tres fuerzas, pero, puede ser que ella será un día igualmente integrada dentro de un esquema unificado. Ella es verdaderamente débil en comparación con otras fuerzas que su existencia misma es un misterio.

Caos: la física clásica recibe otro choque

Hemos indicado que el estudio de los fenómenos cuánticos implica una revisión de nuestras creencias sobre la productividad de los eventos atómicos individuales. Pero el hecho que las leyes estrictas de causa y efecto permiten predecir, en principio, el curso de todos los eventos fuera del nivel atómico continúa a ser una profesión de fe entre los físicos. El gran físico francés Pierre Simón de Laplace (1749 - 1827) formuló esta creencia dentro de una célebre declaración: "una inteligencia que, en un cierto instante, conoció todas las fuerzas de la naturaleza y también las situaciones dadas, puede contener dentro de las mismas fórmulas los movimientos de los cuerpos más vastos del universo y esos dos pequeños átomos; para ello (esta inteligencia) nada sería incierto, y el futuro sería tan claro como el pasado."
Esta fe fue fundada sobre una característica que nosotros ya habíamos mencionado; el poder de las matemáticas para describir los procesos físicos de la naturaleza. Se reconoció que ciertos problemas (por ejemplo, el movimiento turbulento de los fluidos) son tan complicado que desafían el análisis formal de las matemáticas. Toda vez, el juzgó que eso era simplemente un límite práctico, y no un límite fundamental. Otro gran científico francés, Henri Poincaré (1854 - 1912) señaló que había algo más que eso, en el sentido que - con las ecuaciones matemáticas estrictamente causales - había límites fundamentales en predecir en largo término la historia de ciertos tipos de sistemas físicos. Los factores claves eran la existencia de términos denominados no lineales dentro de las ecuaciones del movimiento. Antes del advenimiento de los ordenadores modernos, el comportamiento de tales sistemas no podía ser explorado convenientemente porque, por ejemplo para los movimientos periódicos como el movimiento del péndulo - sería prohibitivo, a nivel de los tiempos consagrado a seguir el movimiento a través de miles de millones de ciclos. Pero este tipo de trabajo - llamado cálculos interactivos - para los cuales los computadores modernos son idealmente concebidos. Eso que ellos hacen podrían ser llamados matemáticas experimentales; las ecuaciones bien definidas, pero sus implicaciones no pueden ser seguidas sin tener que repetir muchas veces un programa numérico. Y los resultados son sorprendentes. Hasta entonces se pensaba que muy pequeños cambios dentro de las condiciones iniciales producirían en consecuencia pequeños cambios dentro del resultado final. Pero se descubrió que el resultado final podría ser sensible a las condiciones iniciales, haciendo impredecibles la situación a largo * término . Esto lo comprendió Poincaré. El fenómeno es llamado caos determinista; él difiere del fracaso intrínseco de la causalidad dentro de los sistemas cuánticos, pero esas consecuencias son en cierta forma similares.
La exploración de sistemas caóticos se volvieron un dominio importante de la física matemática. Incluso si su aplicación física principal es probablemente llevada a ser la mecánica de los fluidos, ella ha encontrado las aplicaciones dentro de la física del estado sólido, en acústica, en física de los plasmas, en física de las partículas elementales y en astrofísica, al igual que en biología y química.


Conclusiones

Si se mira el desarrollo de la física a través del tiempo, es la historia de esfuerzos perpetuos para impulsar las fronteras de nuestros conocimientos del universo. La mayor parte del progreso en física ha consistido en una extensión de la variedad de nuestros conocimientos en términos de distancia y de tiempo. Cuando el hombre está limitado en la utilización de sus facultades naturales, él no puede ver nada más pequeñito que un grano de polvo - digamos aproximadamente 1/1000 cm de diámetro. En el otro extremo, incluso si se pueden ver que las estrellas estaban muy lejos, encontrar la distancia de alguna cosa más lejana que la luna (en poco cerca 400,000 km) estaba fuera de la posibilidad de sus capacidades. Ahora, tenemos los conocimientos específicos de distancias igualmente pequeñas como 10-18 m y tan grandes como 1015 m. En lo que concierne al tiempo, el ojo no puede separase de los eventos producidos en menos de 1/50 s el uno del otro, y la duración de vida de un ser humano alcanzando un límite superior de 109 s de la duración observable por cualquier individuo, igualmente, un sentido de la historia podría permitir a la gente tomar conciencia del tiempo hasta en miles de años* . Esto contrasta con eso que se volvió hoy posible a partir de las medidas físicas. Los milagros de la electrónica moderna han permitido estudiar los tiempos tan pequeños como 10-15 s y la combinación de las observaciones y de las deducciones han permitido a los astrofísicos hablar con certeza de tiempos como billones de años (1017 s). Así, en lo que concierne al tiempo y al espacio, la física ha creado un acceso a los fenómenos incluyendo un abanico de factores más allá del orden de 1030. Se desarrollan alternativas para alargar este abanico de posibilidades.

Nuestro conocimiento de la manera como los componentes variados de la materia interactúan los unos con los otros para producir la inmensa y creciente variedad de los fenómenos físicos específicos, no es cuantificable de esta manera , pero no se tienen dudas sobre la capacidad actual de la física para detectar, explicar y controlar nuevo fenómenos. Se ha sugerido igualmente que el objetivo tradicional de la investigación de un número mínimo de principios fundamentales es actualmente reemplazado por un programa de utilización de esos principios bien establecidos para explorar un catálogo de aplicaciones específicas siempre en expansión.

La verdad, yo creo, es que los dos procesos están en curso, y continuarán estando. La parte expansionista del programa es indudablemente ayudada por el poder de los métodos computacionales modernos, y ello afecta igualmente a las otras ciencias. Toda la química puede, en principio, ser ahora explicada en términos de las fuerzas electromagnéticas y de la teoría cuántica, y la biología comienza a tomar las ideas preciosas dentro de la aplicación de los principios fundamentales. No se trata de sugerir que la física es de alguna manera superior a esas otras ciencias; si alguien observa los éxitos estupefactos de los químicos y de los biólogos, principalmente en el siglo XX, se desencantará rápidamente de una tal idea. Yo no desearía sugerir que el destino de la química y de la biología es volverse una parte de la física. Sin duda alguna, la complejidad de los sistemas biológicos, que concierne a la vez a los químicos y a los biólogos, es tan importante que ella exige una aproximación cualitativamente diferente al de los físicos. El status especial de la física es simplemente que, dentro de un universo construido de partículas elementales y de sus interacciones, su labor ha sido de comprender esas cosas al nivel más primitivo. Esta frase, en efecto, encarna eso que ha constituido el contenido de este artículo.

Deseo agradecer al Profesor E.L: Jossem por haber leído la primera versión de este artículo y por haber hecho numerosas sugerencias pertinentes.

Traducción:
Dra. Miriam Quintana de Robles (UPEL - Venezuela)
Dr. Alfredo Robles (UCV - Venezuela)

Tabla de contenidos | Prólogo | A. Introducción | B. Perspectivas sobre la física y la enseñanza de la física