Para imprimir: Versión PDF

Historia de las Ciencias de Stephen F. Mason

A continuación se reproduce parte del capítulo 3 La teoría cuántica y la estructura del átomo del libro Historia de las ciencias de Stephen F. Mason (Alianza Editorial)

La teoría cuántica y la estructura del átomo

En las postrimerías del siglo diecinueve, en unos cuantos campos que anteriormente se habían visto dominados por la idea de la continuidad de la materia y el cambio, hicieron su aparición teorías en términos de partículas y cambios discontinuos. Tales teorías las desarrollaron principalmente, aunque no exclusivamente, los alemanes, quienes a lo largo del siglo diecinueve mostraron una cierta inclinación hacia las teorías corpuscularistas. La teoría de que la célula era la unidad de las criaturas vivas había sido casi exclusivamente alemana; otro tanto se puede decir de la teoría según la cual la herencia operaba mediante un mecanismo corpuscular de un germoplasma autónomo, al menos por lo que respecta a sus. primeros estadios especulativos con Nageli y Weismann. Los alemanes Fechner, Weber, Riemann, Kirchoff y Clausius consideraban la electricidad en términos de partículas cargadas, mientras que los ingleses Faraday, Kelvin, Maxwell y Fitzgerald consideraban los fenómenos eléctricos como consecuencias de la tensión en un éter continuo. Como hemos visto, Maxwell fracasó a la hora de desarrollar la idea de partículas de electricidad que estaba implícita en su modelo del éter. El alemán Helmholtz, comentando las leyes de Faraday de la electrolisis, decía en 1881:

Ahora bien, el resultado más sorprendente de las leyes de Faraday quizá sea el siguiente: si aceptamos la hipótesis de que las substancias elementales están compuestas de átomos, no podemos dejar de concluir que también la electricidad, sea positiva o negativa, está dividida en porciones elementales que se comportan como átomos de electricidad.

La implicación no le había pasado desapercibida a Faraday, pero la rechazó junto con la teoría atómica de la materia, prefiriendo la opinión según la cual "la materia está presente en todas partes, sin que haya espacios intermedios que no están .ocupados por ella".

Aparte del estudio de la electricidad, otro campo en el que se estaban desarrollando las teorías en términos de partículas era el de la investigación sobre la luz, el calor y otras radiaciones electromagnéticas, en el que durante el siglo diecinueve había tenido un considerable éxito la teoría ondulatoria continua. El punto de partida fue un problema planteado en el estudio de la luz y el calor emitidos por los cuerpos negros, los cuales suministran un espectro continuo de radiación, frente a los espectros de líneas de los elementos químicos. Los experimentos demostraban que cuando un cuerpo negro se calentaba hasta una temperatura dada, emitía una cantidad máxima de energía radiante con una longitud de onda particular, disminuyendo la longitud de onda del máximo a medida que aumenta la temperatura. A las temperaturas de laboratorio, el máximo estaba en la parte visible del espectro, emitiendo el cuerpo primero un brillo rojo, luego luz anaranjada, amarilla, blanca y finalmente azul, a medida que aumentaba la temperatura.

Tales fenómenos no podían explicarse en términos de la teoría ondulatoria de la luz. Lord Rayleigh mostró en 1900 que si las radiaciones electromagnéticas fuesen emitidas por vibradores naturales, no habría una longitud de onda a la que se emitiese una cantidad máxima de energía: la cantidad de energía emitida aumentaría indefinidamente a medida que decreciese la longitud de onda de la radiación. Un vibrador natural, como pueda ser una cuerda tensada, tiene unos cuantos modos de vibrar. El primer modo de vibrar en el caso de la cuerda es aquél en que la longitud de la cuerda es igual a media longitud de onda, produciéndose modos subsiguientes cuando la longitud de la cuerda es igual a 2, 3, 4, 5 semilongitudes de onda, y así indefinidamente, de manera que existe un número infinito de modos de vibración en las longitudes de onda muy cortas. Según el principio de la equipartición de la energía, cada modo de vibración debería tener la misma cantidad de energía, por lo que la mayor parte de la energía de la radiación del cuerpo negro se emitiría en las longitudes de onda muy cortas, la parte ultravioleta y de rayos X del espectro, en lugar de hacerlo en la visible. Otros tratamientos teóricos de la radiación del cuerpo negro no tuvieron un gran éxito, especialmente el publicado en 1896 por Wien, 1864-1928, quien basaba su análisis en razonamientos puramente termodinámicos sin recurrir a un modelo.

En 1900 Max Planck, 1858-1947, a la sazón en Berlín, sugirió una solución al problema. Señaló que si la radiación del cuerpo negro se emitiese discontinuamente en cuantos, de tal manera que la energía de un cuanto fuese proporcional a la frecuencia de la radiación, la emisión de las longitudes de onda más largas hacia el extremo rojo del espectro se vería favorecida a temperaturas bajas, ya que la energía de los cuantos sería pequeña, mientras que a temperaturas más elevadas estaría disponible mayor energía, favoreciendo la emisión de los cuantos mayores de las longitudes de onda menores. De este modo Plank explicaba el hecho de que se emitiese una cantidad máxima de energía con una longitud de onda dada, así como que dicho máximo se desplazase hacia las longitudes de onda más cortas con el aumento de la temperatura. La teoría cuántica de Planck fue utilizada por Einstein en 1905 para explicar las desviaciones de la regla de Dulong y Petit sobre la constancia de los calores atómicos, así como para explicar la emisión de electrones por parte de los metales expuestos a la luz. También sugirió que la luz y las radiaciones electromagnéticas en general se propagaban a través del espacio en forma de partículas o fotones, como acabaron denominándose, llenando así de algún modo el hueco dejado por el rechazo del éter en su teoría de la relatividad publicada el mismo año.

El campo en que la teoría cuántica encontró sus aplicaciones más importantes fue el de la investigación de la estructura del átomo. Como hemos visto, las leyes de la electrolisis observadas cuando la electricidad se hace pasar a través de una solución salina, llevaron a Helmholtz a sugerir en 1881 que la electricidad existía en forma de partículas que Johnstone Stoney denominó electrones en 1891. El paso de la electricidad a través de gases a bajas temperaturas suministró una prueba adicional de que la electricidad era de carácter corpuscular, porporcionando un método para estudiar la estructura del átomo. Cuando se descargaba la electricidad entre dos placas en un tubo que contuviese un gas a presiones muy bajas, se observaban tres tipos de rayos: los catódicos que iban de la placa negativa a la positiva; los positivos que viajaban en dirección opuesta; y los rayos X que se forman cuando los rayos catódicos chocan con la materia, como puede ser un blanco metálico.

Los rayos catódicos fueron los primeros qué se estudiaron con intensidad. Se descubrió que viajaban en línea recta, dado que los objetos interpuestos en su trayectoria arrojaban sombras nítidas. También poseían un momento notable, ya que hacían girar una rueda de palas ligera. Por consiguiente, los rayos catódicos parecían consistir en una corriente de partículas con movimiento rectilíneo, demostrándose que dichas partículas estaban cargadas, dado que los rayos se desviaban merced a los campos eléctricos y magnéticos. En 1897, J. J. Thomson, 1856-1940, en Cambridge, midió la velocidad de tales partículas disponiendo un campo eléctrico y magnético de modo que las desviaciones producidas por cada uno de ellos se anulasen. La fuerza ejercida por el campo magnético sobre las partículas dependía de su velocidad, mientras que la fuerza ejercida por el campo eléctrico, no. En el experimento de Thomson, la razón entre la fuerza de los campos eléctrico y magnético daba la velocidad de las partículas, y una vez conocido este extremo, la razón entre la carga y la masa de las partículas se podía determinar a partir tan sólo de la desviación magnética o eléctrica.

Thomson demostró que dichas partículas estaban cargadas negativamente y que eran un constituyente común de toda la materia, dado que cualquier gas puesto en su tubo de descarga producía rayos catódicos con la misma proporción de carga masa. De la electrolisis de soluciones ácidas se concluyó que la razón entre carga y masa de los iones de hidrógeno eran unas dos mil veces menor, de lo que dedujo Thomson que la masa de un ión de hidrógeno era unas dos mil veces mayor que la de una partícula de los rayos catódicos, un electrón, siendo sus cargas iguales aunque de signo opuesto. La deducción de Thomson se vio confirmada cuando se midió la carga de un electrón, gracias sobre todo a Millikan en América, quien de 1913 a 1917 examinó los movimientos de gotas de aceite cargadas entre campos electrostáticos y gravitatorios opuestos. Descubrió que la carga menor que tomaba una gota de aceite era igual al mínimo común múltiplo de las cargas más elevadas que podía recibir la gota, lo que consideró como la carga de un electrón aislado. La magnitud de la carga era la misma que la de un ión de hidrógeno, aunque de signo opuesto, lo que indicaba que el hidrógeno era 1836 veces más pesado que el electrón.

Basándose en ello, Thomson sugirió en 1904 que los átomos de los elementos químicos constaban de electrones unidos por una esfera de carga positiva. Pensaba que los electrones eran responsables de toda la masa del átomo, de modo que, por ejemplo, había 1836 electrones en un átomo de hidrógeno. No obstante, el estudio de la radiactividad pronto llevó al abandono del modelo atómico de Thomson. Se descubrió que los elementos radiactivos emitían tres tipos de rayos similares a los producidos por un tubo de descarga de gas: en primer lugar, los rayos alfa cargados positivamente que constaban de iones de helio con doble carga semejantes a los rayos positivos; en segundo lugar, los rayos beta, consistentes en electrones como los rayos catódicos, si bien se movían un poco más rápidamente; y en tercer lugar, rayos gamma sin cargar que constituían radiaciones electromagnéticas como los rayos X, aunque presentaban longitudes de onda aun menores. Rutherford, 1871-1937, primero en Manchester y luego en Cambridge, mostró que las partículas alfa pasaban en su mayor parte en línea recta a través de la materia, si bien unas pocas, aproximadamente una de cada veinte mil, experimentaban considerables desviaciones, frecuentemente rebotando hacia atrás. Así pues, quedaba claro que el átomo contenía una fuerza de desviación poderosa o núcleo, que resultaba muy pequeño comparado con el tamaño total del átomo. En 1911 Rutherford sugirió que el átomo constaba de un pequeño núcleo cargado positivamente y que acaparaba la mayor parte de la masa del átomo, rodeado de electrones que se movían en torno al núcleo orbitalmente, como los planetas en torno al sol. El número de cargas positivas del núcleo de un átomo elemental dado era igual al número ordinal de dicho elemento en la tabla periódica, así cono también al número de electrones orbitales que hacían que el átomo fuese eléctricamente neutro en su conjunto. El hecho de que los elementos más pesados dispersasen las partículas alfa en mayor medida que los más ligeros, presuntamente debido a su mayor carga y masa nuclear, suministró una prueba a favor del modelo atómico de Rutherford. Además se descubrió que cuando un elemento radiactivo emitía una partícula alfa doblemente cargada, el nuevo elemento formado estaba dos lugares más atrás en la tabla periódica, lo que indicaba, según la teoría de Rutherford, que tenía dos cargas positivas menos en el núcleo, mientras que la emisión de una partícula beta, que tenía una única carga negativa, daba un elemento un lugar más adelante en la tabla periódica; esto es, poseía una carga positiva extra en su núcleo. Dado que el peso de un elemento era aproximadamente el doble de su número atómico o carga nuclear, se suponía que el núcleo de un átomo estaba compuesto de núcleos de hidrógeno o protones, iguales en número al peso atómico, así como al número de electrones necesarios para hacer que la carga total del núcleo fuese el número atómico.

Según la teoría clásica, el modelo de Rutherford del átomo contenía un defecto inherente. Los electrones orbitales eran cargas que se movían en el campo electrostático del núcleo, por lo que debían de emitir radiación de manera continua. Los electrones tenían que perder su propia energía cinética en el. proceso, por lo que deberían caer en espiral hacia el núcleo. Niels Bohr, que trabajaba entonces con Rutherford, señaló en 1913 que el modelo podía salvarse mediante la nueva teoría cuántica. Si la radiación no se podía emitir continuamente, sino tan sólo en cuantos definidos, se podía suponer que había ciertas órbitas estables por las que podían moverse los electrones sin pérdida de energía, emitiéndose radiación tan sólo cuando un electrón saltaba de una órbita a otra. De este modo, sería posible explicar el hecho de que los espectros atómicos de los elementos constasen de líneas nítidas y no de bandas continuas. La energía del cuanto, y por ende la frecuencia de la radiación emitida cuando un electrón saltaba de una órbita a otra, se podría determinar mediante la diferencia entre las energías cinéticas del electrón en ambas órbitas. Fijadas las órbitas, también quedaba fijada la diferencia de energía entre ellas, con lo que cada una de las líneas del espectro atómico del elemento debería corresponder a una transición electrónica particular entre dos de esas órbitas. Por este procedimiento Bohr consiguió explicar los espectros atómicos del hidrógeno de manera cuantitativa, tipificando las principales órbitas a las que podía saltar un electrón mediante un número cuántico, N, que podía tomar los valores 1, 2, 3, 4, etc., de manera que un salto de la segunda órbita a la primera daba una línea espectral, uno de la tercera a la segunda otra, etc.

Mediante instrumentos de poder resolutivo mayor se vio que las líneas de los espectros atómicos poseían una estructura fina. A fin de explicar este fenómeno, Sommerfeld sugirió en Munich en 1915 que la órbita electrónica fundamental de número cuántico N se subdividía en órbitas subsidiarias, cuyo número se regía por un número cuántico subsidiario, K, que podía adoptar los valores, 1, 2, 3 , 4 ... N. Sommerfeld representaba como elipses estas órbitas subsidiarias, de manera que variasen de forma desde un círculo hasta una elipse alargada. Presentarían energías ligeramente distintas, dado que un electrón en una órbita elíptica alargada aumentaría su velocidad y su masa cuando se moviese en la vecindad del núcleo atómico, de acuerdo con la teoría de la relatividad de Einstein, mostrando un movimiento de precesión en torno al núcleo, a la manera de Mercurio en torno al sol. Hubo que introducir un número cuántico subsidiario, M, que podía adoptar los valores -(K-1) ... 0 ... +(K-1), a fin de explicar la división de las líneas de los espectros atómicos en un campo magnético, fenómeno que había sido descubierto por Zeeman, 1865 1943, en Leiden en 1896. Finalmente, en 1925, Uhlenbeck y Goudsmit sugirieron un número cuántico de espín, S, que podía presentar dos valores opuestos, a fin de explicar ulteriores variedades de las líneas espectrales atómicas, suponiendo que un electrón podía girar sobre su eje en una de las dos direcciones opuestas.

En Hamburgo, Pauli formuló en 1925 el principio de que dos electrones de un átomo dado no podían tener el mismo conjunto de números cuánticos, restricción que limitaba y definía las posibles estructuras electrónicas de los átomos elementales. Cuando el número cuántico fundamental, N, era igual a 1, la órbita así definida sólo podía contener un único electrón o bien dos electrones con rotaciones opuestas, ya que los números subsidiarios, K y M, sólo podían poseer sus valores mínimos. Así pues, la primera órbita fundamental abarcaba los casos del hidrógeno, con un electrón orbital, y del helio, con dos, llenando así la primera órbita o capa fundamental. Cuando el número cuántico fundamental era igual a 2, el número cuántico subsidiario, K, podría adoptar los valores 1 ó 2, y M, los valores 0 cuando K era igual a 1, y -1, 0, + 1 cuando K era igual a 2. En la segunda órbita fundamental había por consiguiente cuatro órbitas subsidiarias, cada una de las cuales podría acomodar dos electrones con espín opuesto, cubriendo así los ocho elementos siguientes, el litio, berilo, boro, carbono, nitrógeno, oxígeno, flúor y neón. De esta manera, los números cuánticos derivados del estudio de los espectros atómicos indicaban las estructuras electrónicas que poseían los elementos, suministrando una clasificación electrónica de los elementos que concordaba estrechamente con la primitiva clasificación periódica.

La clasificación electrónica de los elementos llamó la atención sobre el hecho de que los gases inertes, que presentaban escasa o nula tendencia a formar compuestos químicos, tenían lugar cuando una capa o subcapa electrónica se hallaba completa, como ocurría en los casos del helio y el neón mencionados más arriba. Por consiguiente quedaba de manifiesto que una capa o subcapa completa constituía una estructura electrónica particularmente estable, confiriendo así mayor precisión a la teoría de la combinación química. En América, entre 1919 y 1921, Langmuir desarrolló la teoría de que los elementos químicos se combinaban de manera que alcanzasen en sus compuestos la estructura electrónica estable de los gases inertes. Apuntó que los átomos elementales podían conseguirlo de dos maneras, o cediendo y recibiendo electrones, o compartiendo electrones, denominándose las combinaciones electrovalencia y covalencia respectivamente. Así, por ejemplo, el sodio contiene un electrón más que el gas inerte neón, mientras que el flúor tiene uno menos. Cuando se combinan para producir el fluoruro sódico electrovalente, los átomos de sodio dan su electrón extra a los átomos de flúor, de manera que ambos tipos de átomos alcanzan la estructura electrónica estable del neón. Las cargas nucleares permanecen constantes, con lo que los átomos de sodio se cargan positivamente y los de flúor, negativamente, manteniéndolos unidos la fuerza electrostática entre ellos. Dos átomos de flúor, que tienen un electrón menos que la estructura electrónica del neón, pueden formar un tipo distinto de enlace compartiendo uno de sus electrones con el otro átomo, dando la molécula covalente del flúor. Aquí, ambos átomos son eléctricamente neutros, uniéndose rígidamente a una distancia de enlace fija por los dos electrones intercambiados entre sí, mientras que los dos iones eléctricamente cargados de los compuestos electrovalentes se pueden mover independientemente el uno del otro, en determinadas circunstancias, como en una solución acuosa. Se vio más tarde que las electrovalencias y covalencias puras eran raras, siendo la mayoría de las combinaciones de ambos tipos, ya que muchos compuestos covalentes poseían un momento dipolar, lo que indicaba una separación de carga en sus enlaces, mientras que se descubrió que las capas electrónicas de los iones electrovalentes estaban polarizadas o distorsionadas.

El átomo de Bohr suministró a los químicos un modelo útil para interpretar la estructura de las moléculas y el curso de la combinación química, mas para los físicos resultaba menos satisfactorio; dado que sólo explicaba los espectros atómicos del átomo del tipo del hidrógeno, e incluso en este caso no explicaba las intensidades relativas de las líneas espectrales observadas. Uno de los discípulos de Sommerfeld, Werner Heisenberg, sugirió en 1925 que todos los modelos mecánicos del átomo del tipo del de Bohr deberían de abandonarse, adoptando un enfoque alternativo en el que se insertasen inmediatamente en ecuaciones matemáticas las magnitudes directamente medibles, como las frecuencias e intensidades de las líneas espectrales. De este modo, Heisenberg logró explicar el efecto Zeeman que había planteado dificultades a la primitiva teoría de Bohr. Sin embargo, se derivó otro enfoque de la predicción realizada por Louis de Broglie en 1925 de que la materia, así como la radiación, debería poseer propiedades tanto de las partículas como de las ondas. Más adelante se descubrió que los electrones, protones y partículas alfa tenían propiedades ondulatorias, produciendo patrones de difracción como la luz y los rayos X, pero antes Erwin Schrödinger consiguió explicar en 1926 los mismos efectos que Heisenberg suponiendo que los electrones poseían forma de onda. Desde este punto de vista, el postulado de Bohr de que las órbitas estables del electrón estaban definidas por el requisito de que los electrones debían de tener momentos angulares iguales a un número entero de , donde h es la constante de Planck, conectando la magnitud de un cuanto de energía de radiación con su frecuencia, era equivalente al requisito de que hubiese un número entero de longitudes de onda del electrón en torno a la circunferencia de una órbita estable.

No obstante, en el esquema de Schrödinguer los electrones ya no se mueven en órbitas definidas. Sus ecuaciones mostraban que la densidad de la carga eléctrica en el átomo alternaba de forma ondulatoria a partir del núcleo, correspondiendo los picos de las ondas a lo que eran las órbitas en el primitivo átomo de Bohr. El propio Schrödinger consideraba que las formas ondulatorias representaban la distribución real de la carga en el átomo, mas Bohr sugirió en 1926 que la altura de la onda en un punto cualquiera debería tomarse como una medida de la probabilidad de hallar un electrón en dicha posición. El punto de vista de Bohr indicaba que un electrón no podía localizarse con toda precisión; pudiéndose determinar tan sólo la probabilidad de hallar un electrón en un punto particular. En 1927 Heisenberg mostró que el momento y la energía de un electrón eran asimismo indeterminados, siendo el producto del momento y la posición de un electrón algo indeterminado hasta un punto que nunca podría ser menor que , siendo h la constante de Planck. Este "principio de incertidumbre" se seguía de la cualidad onda partícula de la materia y la radiación, así como del hecho de que las características de los objetos se veían en general inevitablemente alteradas en el transcurso de la experimentación. Si se quisiese medir con precisión la posición de un electrón, habría que emplear para su determinación longitudes de onda muy pequeñas. Mas tales radiaciones poseerían cuantos de alta energía, alterando el momento y la energía del electrón por impacto. Asimismo, para medir el momento de un electrón habría que utilizar cuantos de baja energía, y al ser grandes las longitudes de onda de tales cuantos, la posición del electrón sería correspondientemente indeterminada. La dualidad onda partícula observada de la materia y la radiación planteaba también el problema de qué correspondencia existía entre las propiedades de partícula y las propiedades de onda. Planck mostró que la energía de un cuanto era igual a la frecuencia de su radiación por la constante h de Planck. De Broglie descubrió que la velocidad de una partícula era igual a la velocidad de grupo de sus ondas asociadas, siendo la velocidad de grupo de un tren de ondas menor que la de las ondas individuales, tal y como puede verse en ocasiones en el caso de las ondas de agua cuando la cresta de una ola de longitud de onda larga corre lentamente a través de un grupo de ondas menores. Más tarde, en 1927, Sir Charles Darwin sugirió que los dos modos posibles del espín de una partícula corresponden a los dos componentes transversales de la vibración ondulatoria separados por la polarización.