Para imprimir: versión PDF

Artículo de Louis De Broglie perteneciente a Historia General de las Ciencias de René Taton

A continuación se reproduce íntegro el artículo Física atómica y cuántica contemporánea de Louis De Broglie que aparece en la obra Historia general de las ciencias publicada bajo la dirección de René Taton.

FÍSICA ATÓMICA Y CUÁNTICA CONTEMPORÁNEA

Estado de la Física hacia 1900

El siglo XIX había constituido el período triunfal de lo que llamamos hoy "Física clásica", es decir, la que estudia los fenómenos directamente observables a nuestra escala habitual. Heredando en estos dominios conquistas de los siglos precedentes, el siglo XIX vio establecerse definitivamente sobre inquebrantables bases la Mecánica teórica y aplicada de los cuerpos a gran escala, la Hidrodinámica, la Acústica, la Óptica geométrica... Asimismo contempló el nacimiento, y rápido desarrollo, de la Óptica física, dominada por la teoría ondulatoria de Fresnel, la teoría de la propagación del calor de Fourier, la ciencia de la electricidad que, desde Coulomb y Galvani hasta Ampére y Faraday, no había cesado en su progreso a pasos de gigante para desembocar en la magnífica síntesis de Maxwell; vio también, gracias a los trabajos de los Sadi Carnot, Mayer, Joule, Clausius..., la conversión de la Termodinámica en una disciplina autónoma y poderosa, capaz de ofrecer a todas las demás ramas de la Física formas de razonamientos y concepciones generales susceptibles de encontrar en cualquier parte inmensos campos de aplicación.

Y sin embargo, a pesar de todos estos rápidos y brillantes éxitos, la Física de fines del siglo XIX adolecía de ciertos males ocultos. Su desarrollo había sido la prolongación natural del de la Mecánica en los siglos XVII y XVIII; pero, mientras que la Mecánica reposaba más o menos explícitamente en su forma original en la consideración de los "puntos materiales", simbolizando una estructura discontinua de la materia, la Física moderna (y la propia Mecánica cuando adquiere las formas adaptadas a la representación de los medios continuos en Hidrodinámica y en la teoría de la elasticidad) había hecho uso paulatinamente cada vez con mayor amplitud, de representaciones continuas que permitían la utilización de ecuaciones en derivadas parciales. La óptica de Fresnel, el electromagnetismo de Maxwell, la termodinámica abstracta basada en los principios de la conservación de la energía y del aumento de la entropía hacían completa abstracción de toda estructura discontinua de la materia o de la energía y parecían desterrar de la Física teórica toda concepción de discontinuidad. Sin embargo, lo discontinuo no se dejaba eliminar de la realidad física tan fácilmente como ciertos teóricos hubiesen deseado: el punto material continuaba figurando en la base de las leyes experimentales de la Mecánica; los químicos, incluso los que sin adherirse a ella completamente veían en esta concepción una cómoda imagen, reconocían la utilidad de la teoría atómica de la materia y las leyes de la electrólisis, descubiertas por Faraday, sugerían la existencia de una estructura discontinua de la Electricidad.

Por otra parte, a la corriente general que llevaba a los físicos hacia representaciones continuas del mundo físico, se oponía una contracorriente: algunos animosos teóricos intentaban reintroducir en las imágenes continuas, generalmente admitidas, ciertos elementos discontinuos susceptibles de completarlas y de aclarar su verdadero sentido. Clausius, Maxwell y sobre todo Boltzmann, restaurando en Física las nociones de átomo y de molécula, intentaban edificar teorías "cinéticas" de la materia y hallar en ellas una interpretación de los principios abstractos de la Termodinámica y especialmente de la noción de entropía. H. A. Lorentz, convencido de la existencia de una estructura discontinua de la Electricidad, reemplazaba la teoría electromagnética de Maxvell por una teoría más precisa que hacía intervenir, bajo el nombre genérico de electrones, cargas eléctricas localizadas y corpusculares.

Estos intentos, un poco toscos todavía y a veces insuficientemente asentados, levantaban la oposición violenta de la escuela "energetista", que se alzaba de esta forma contra el esfuerzo de los "atomistas". Eminentes espíritus de tendencia abstracta, más o menos influenciados por las filosofías idealistas o positivistas, tales como E. Mach, W. Ostwald, P. Duhem, se oponían a la introducción en la teoría física de elementos discontinuos que escaparan a toda observación directa. Su punto de vista, expresado a menudo con intransigencia, era compartido por la mayor parte de los físicos.

Pero ya entre 1880 y 1900 se fueron acumulando pruebas experimentales a favor de la existencia de una estructura discontinua de la materia y de la electricidad. El estudio de la descarga en los gases y el análisis de los fenómenos electrolíticos inducían a la idea de que en los gases y en los líquidos podían existir átomos o agrupaciones de átomos, los iones, que transportaban cargas eléctricas siempre múltiplos enteros de una unidad fundamental. Además, el estudio de las descargas en los tubos de Crookes, que provocaban la aparición de los "rayos catódicos", indicaba que la electricidad negativa era siempre transportada por pequeños corpúsculos extraordinariamente ligeros a los cuales poco a poco se tomó por costumbre dar el nombre de electrones. En la determinación de estos electrones, se hallaron valores siempre iguales entre sí en la emisión fotoeléctrica de ciertos metales sometidos a la irradiación de luz de longitud de onda suficientemente corta, en la emisión termoiónica de filamentos incandescentes y, más tarde, en la radiación de los cuerpos radiactivos: se seguían sus trayectorias, se las desviaba mediante la acción de campos eléctricos o magnéticos y se medía la relación de sus cargas a sus masas. Atribuyendo la emisión de la radiación por la materia al movimiento de los electrones en los átomos, Lorentz llegó a prever que las líneas emitidas por una fuente luminosa se hallaban modificadas en cierta forma cuando la fuente se colocaba en un campo magnético y, en 1896, los experimentos de Zeeman aportaron una notable confirmación de esta audaz previsión.

Poco a poco, a pesar de la resistencia de los energetistas, la afirmación de los atomistas, según la cual, detrás de las apariencias continuas de los fenómenos observables a nuestra escala habitual, se esconde, a una escala mucho más pequeña, una realidad profunda donde las discontinuidades corpusculares juegan un papel esencial, parecía cada día más y más corroborada por la experiencia. De esta forma, parecía esbozarse el comienzo de un gran giro en la historia de la Física: el giro se produjo, pero, como consecuencia de la aparición totalmente inesperada de los cuantos en la ciencia, fue más acentuado todavía de lo que se había previsto.

Triunfo del atomismo y aparición de los cuantos (1900-1912)

A partir de 1900, mientras todos los químicos se unían, ya sin ninguna reticencia, a la hipótesis atómica, los físicos reunían un haz de pruebas experimentales evidentemente indirectas, pero notablemente convergentes, a favor de la existencia de los átomos y de las moléculas. En Francia, el nombre de Jean Perrin quedó vinculado a esta fase de la historia de la Física, de la cual su memorable libro Les atomes constituye un notable cuadro. Ciertas experiencias cruciales efectuadas en esta época consistieron en evaluar mediante muy diversos métodos la célebre constante conocida con el nombre de "número de Avogadro". Si se adopta la hipótesis atómica, debe admitirse, como demostraron hacia 1815 Ampére y Avogadro, que la molécula gramo de un cuerpo cualquiera contiene siempre el mismo número de moléculas. Esta constante fundamental del atomismo, el número de Avogadro, fue objeto de numerosas determinaciones entre 1900 y 1910, mediante medidas que se hallan expuestas en el libro de Jean Perrin. La notable coincidencia en las determinaciones efectuadas de esta forma mediante métodos muy diferentes aportó por fin una confirmación absolutamente convincente de la existencia de átomos y moléculas. Estos métodos, al demostrar que el número de Avogadro es enormemente elevado (6´1023 aproximadamente), permitieron calcular la masa del átomo de hidrógeno (alrededor de 1,6´10-24 g), y en consecuencia la de todos los átomos y moléculas.

Triunfante finalmente de las chanzas de los energetistas, la teoría cinética de la materia, una vez adquirida, gracias sobre todo a los esfuerzos de Boltzmann y Gibbs, la forma más general de la mecánica estadística, logró no solamente interpretar las leyes de los gases y precisar el profundo sentido del segundo principio de la Termodinámica, sino incluso intuir los fenómenos que escapaban totalmente a las previsiones de la Termodinámica clásica, tales como el movimiento browniano, reflejo a nuestra habitual escala de la agitación caótica de las moléculas, y las fluctuaciones de energía y de densidad, estas últimas evidenciadas netamente mediante los fenómenos de opalescencia crítica. Diversos trabajos teóricos, principalmente los de Einstein y Smoluchowski, habían suministrado la teoría de estos fenómenos basada en la mecánica estadística y, también aquí, la experiencia, confirmando las previsiones teóricas, aportó nuevas y contundentes pruebas en favor de la existencia de una estructura discontinua de la materia.

Hacia 1910, los atomistas eran los vencedores y aun los más encarnizados energetistas depusieron las armas. Mas por un curioso acontecer, el éxito alcanzado por los atomistas fue mayor todavía de lo que ellos mismos esperaban. Efectivamente, la discontinuidad no concernía tan sólo a la materia, tal como ellos pensaban, sino que amenazaba con introducirse también en el dominio de la luz, dominio en el que reinaba desde hacía casi un siglo la concepción esencialmente continua de las ondas, y, lo que es más extraordinario todavía, la continuidad de los estados de movimiento, tan íntimamente vinculada a la continuidad del marco del espacio y del tiempo, parecía peligrar también por la aparición de los cuantos.

El origen de la teoría de los cuantos se halla en las investigaciones llevadas a cabo por los físicos, en relación con el problema de la radiación del cuerpo negro.

Por definición, la radiación del cuerpo negro es la radiación que existe en el interior de un recinto, de un horno, sometido a temperatura uniforme. Utilizando conceptos generales de Termodinámica, Kirchhoff llegó a demostrar que esta radiación depende únicamente de la temperatura del recinto y que es totalmente independiente de la naturaleza de las paredes de este recinto y de los cuerpos materiales que puede contener. También con ayuda de la Termodinámica, Stefan y Boltzmann pudieron demostrar que la cantidad total de energía contenida en la unidad de volumen crecía muy rápidamente con la temperatura (como la cuarta potencia de ésta). Pero el mayor problema consistía en hallar la ley de distribución de la radiación del cuerpo negro, es decir, la fórmula que representara la distribución espectral de la energía de la radiación entre las diferentes longitudes de onda presentes. Profundizando en el análisis termodinámico, Wien obtuvo entonces una fórmula de distribución en la que, sin embargo, subsistía una función arbitraria: la fórmula de Wien aportaba de esta manera importantes precisiones sobre la distribución espectral de la radiación del cuerpo negro, pero sin llegar a determinarla completamente.

Tras los trabajos de Wien, los científicos constataron que la Termodinámica había dado en este punto todo lo que podía dar de sí y que, para determinar completamente la distribución espectral de la radiación del cuerpo negro, era preciso hacer intervenir el análisis de los intercambios de energía entre la materia y la radiación.

Pero, alrededor de 1900, esto parecía fácil pues las teorías corpusculares de la Electricidad, especialmente la teoría de los electrones de Lorentz, conducían a representar las emisiones y absorciones de la radiación por la materia, como procesos continuos de los que se creía conocer perfectamente las leyes. Ahora bien, tal como mostró Lord Rayleigh en primer lugar, y más tarde otros científicos como J. Jeans y H. Poincaré, si se admiten esas leyes, se llega necesariamente a una ley perfectamente bien definida de la distribución espectral de la energía de la radiación del cuerpo negro. Esta ley está de acuerdo con las leyes termodinámicas de Stefan Boltzmann y de Wien, pero introduce en la primera de ellas un coeficiente infinito, lo que resulta inaceptable. Además, mientras los científicos teóricos estudiaban esta cuestión mediante el cálculo, los investigadores experimentales determinaban en sus laboratorios la forma empírica de la distribución espectral de la radiación del cuerpo negro y esta forma resultaba totalmente incompatible con la ley de Rayleigh Jeans.

La Física de esta época se hallaba pues aquí ante graves problemas conceptuales. Fue entonces cuando Max Planck se planteó el estudio de esta angustiosa cuestión.

Hasta entonces Planck era principalmente un especialista en Termodinámica: había reflexionado profundamente sobre las bases de esta ciencia, de la cual conocía todos los arcanos. Al abordar el problema de la radiación del cuerpo negro, buscó instintivamente la formulación precisa de todas las características termodinámicas de esta radiación haciendo intervenir no solamente su energía sino también su entropía. Adoptando la concepción continua de la emisión y de la absorción admitida en esta época, Planck halló nuevamente, de esta forma, la ley de Rayleigh Jeans. Una curiosa circunstancia vino a modificar su orientación: pidió a Boltzmann su parecer sobre estos trabajos y este maestro, que tan bien conocía las bases de la interpretación estadística de la Termodinámica, le contestó que jamás obtendría una solución satisfactoria del equilibrio entre la materia y la radiación si no introducía una discontinuidad en los procesos de absorción y emisión. Convencido de que el ilustre físico debía tener razón, Planck orientó sus trabajos en esta nueva dirección, y así, después de grandes esfuerzos, de los que ha dejado una emocionante descripción, logró llegar a la famosa "fórmula de Planck", que representa exactamente la distribución espectral de la energía en la radiación del cuerpo negro. Para llegar a ella, tuvo que suponer que en la materia los electrones no pueden estar animados de movimientos cualesquiera, sino solamente de ciertos movimientos privilegiados, los movimientos cuantificados, y admitir en consecuencia que la energía radiante de frecuencia n se emitía y absorbía en cantidades finitas iguales a hn, siendo h una nueva constante fundamental de la Física, la constante de Planck, cuyo valor numérico quedó inmediatamente determinado mediante una comparación con los resultados experimentales.

La hipótesis de los cuantos era muy audaz. Parecía implicar una discontinuidad de movimientos posibles de un corpúsculo en un campo de fuerzas que quedaba fuera del marco conceptual de la mecánica clásica: era ésta una forma de discontinuidad totalmente inesperada y aparentemente muy distinta de la que interviene en la estructura de la materia y de la electricidad. Además, si la emisión mediante cuantos de energía podía en rigor conciliarse con la idea entonces admitida de que, en la luz y más generalmente en todas las radiaciones, la energía se reparte de una forma continua, la absorción por cuantos parecía imponer la existencia de una estructura corpuscular de la energía radiante, en rotunda contradicción con las teorías ondulatorias de Fresnel y Maxwell. Y, al tiempo que Planck dudaba al admitir esta consecuencia extrema de sus propias ideas, Einstein aportaría en su favor un argumento decisivo.

En efecto, en 1905, Albert Einstein quien, el mismo año, sentaría las bases de la teoría de la Relatividad, descubría la única explicación válida del misterioso "efecto fotoeléctrico". Esta explicación consiste en admitir que en toda radiación de frecuencia nla energía se concentra en corpúsculos o "cuantos de luz", de valor hn, denominados actualmente fotones, de forma que un metal fotoemisivo excitado por una luz monocromática, recibe en total una granizada de fotones: si la frecuencia de la radiación es suficientemente elevada, un electrón contenido en el metal es susceptible de absorber la energía de un fotón y de proyectarse fuera del metal en forma de "fotoelectrones" con una energía cinética que crece proporcionalmente a la frecuencia. La ley fundamental del efecto fotoeléctrico, de la que no podían dar cuenta las concepciones clásicas de la luz, se demostraba de esta forma mediante un análisis de extrema simplicidad. Profundizando en las consecuencias de la existencia de los cuantos de luz, Einstein consolidó su teoría estudiando profundamente el equilibrio entre la radiación y la materia en un recinto en equilibrio térmico, así como las fluctuaciones de energía en la radiación. Dejando bien sentado que no podía abandonarse completamente la imagen de las ondas luminosas (que es, por otra parte, necesaria para definir la frecuencia de una radiación y en consecuencia la energía de los correspondientes fotones), Einstein intuyó claramente la necesidad de obtener una teoría sintética de la radiación que diera cuenta a la vez de su aspecto corpuscular y de su aspecto ondulatorio y anunció algunas de las condiciones necesarias de esta síntesis.

De esta forma, superando y, en un cierto sentido, completando la hipótesis atómica, el éxito de la teoría de los cuantos de luz demostraba que la discontinuidad existe no solamente en la estructura de la materia sino también, en una forma particularmente difícil de interpretar, en la estructura de la luz y de todas las radiaciones. Parecía extenderse incluso de forma completamente inesperada a los propios movimientos. Así, esta extraña teoría de los cuantos, que sin embargo lograba cada día nuevos éxitos, especialmente en la interpretación de ciertos fenómenos hasta entonces inexplicables en el dominio de los calores específicos, parecía arrastrar a los "atomistas" mucho más allá del punto en el que tal vez habrían deseado pararse.

La teoría de Bohr y sus prolongaciones (1913-1923)

En 1913, la teoría de los cuantos alcanzó una gran victoria: abrió de par en par la puerta del mundo atómico. Niels Bohr, un joven físico que seguía entonces un curso en el laboratorio dirigido por Ernest Rutherford en Cambridge, había estudiado perfectamente el modelo de átomo, análogo a un pequeño sistema solar en miniatura, que el ilustre físico inglés había propuesto, traduciendo exactamente los resultados de sus famosos experimentos sobre la desviación sufrida por los rayos " cuando atraviesan la materia: Bohr admiraba la elegancia de esta teoría, pero conocía también las dificultades que entrañaba. Sabía en especial que, si se adoptan las ideas clásicas sobre emisión de radiaciones, el átomo concebido por Rutherford no podría emitir un espectro de líneas de frecuencias determinadas y sería incluso inestable ya que los electrones periféricos debían caer rápidamente sobre el núcleo. Bohr se dio cuenta de que, partiendo de este modelo de átomo, para obtener resultados aceptables y conformes con los hechos, era preciso aplicarle las ideas introducidas por la teoría de los cuantos. Inspirándose directamente en las concepciones de Planck y Einstein, admitió los dos postulados siguientes:

1º Entre todos los movimientos que la antigua mecánica reconocía como posibles para los electrones interatómicos en el modelo de Rutherford, solamente son estables y tienen lugar en la naturaleza ciertos movimientos que satisfacen las condiciones de cuantificación, en las que interviene la constante de Planck, de forma que el átomo únicamente puede hallarse en un cierto número de estados "estacionarios" cuantificados.

2º El átomo es susceptible de pasar, mediante una brusca "transición", de un estado cuántico de energía Ei a otro estado cuántico de energía Ek < Ei (o inversamente), viniendo acompañada esta transición de la emisión (o de la absorción) de un "cuanto de luz" (fotón) igual a hn, de forma que la conservación de la energía impone la relación hn = Ei - Ek, conocida con el nombre de "ley de las frecuencias de Bohr".

Con estos dos postulados fundamentales Niels Bohr construyó una teoría cuántica del átomo, de un tipo completamente nuevo, que inmediatamente dio cuenta de un gran número de hechos hasta entonces misteriosos y que ha ejercido una influencia capital sobre toda la orientación de la Física contemporánea.

No es este el lugar adecuado para exponer los éxitos de esta famosa teoría de Bohr. Nos limitaremos a señalar que ha permitido comprender el origen de las leyes que dan las frecuencias de las líneas espectrales emitidas por los átomos, leyes deducidas experimentalmente y cuya interpretación resultaba hasta entonces imposible, y reconocer la verdadera naturaleza, esencialmente cuántica, de los fenómenos de excitación y de ionización de los átomos y moléculas mediante choques. Debemos recordar también que Bohr logró explicar de forma notable el significado de la pequeñísima diferencia en los valores que deben atribuirse a la constante llamada "de Rydberg" en el espectro del hidrógeno y en el del helio.

En 1913, Bohr presentó su teoría de una forma simplificada, que ya acusaba acentuadamente su inmenso contenido conceptual, pero que pecaba todavía de falta de precisión y fuerza explicativa. En los años que siguieron, otros trabajos, especialmente los de Sommerfeld en 1916, ampliaron y precisaron la forma primitiva de los razonamientos de Bohr. Aplicando a la parte dinámica del problema las correcciones de relatividad, ampliando el enunciado de las condiciones de cuantificación, Sommerfeld y sus seguidores establecieron una teoría de las líneas espectrales más detallada que la de Bohr, dando cuenta en especial de una parte de sus estructuras finas y desarrollando con éxito las teorías del efecto Zeeman y del efecto Stark (descomposición de las líneas espectrales emitidas por un manantial luminoso al someterle, ya sea a un campo magnético, ya a un campo eléctrico).

De esta forma, sobre la base de las concepciones de Planck, se construyó progresivamente lo que se ha dado en llamar "la antigua teoría de los cuantos", doctrina algo basta todavía que, aun conservando para el movimiento de las unidades corpusculares las leyes de las antiguas dinámicas puntuales, restringía el número de movimientos físicamente realizables, imponiendo la satisfacción de ciertas condiciones de cuantificación en las que figura la constante h. Esta teoría adolecía visiblemente de ciertas contradicciones internas y pronto resultó evidente que, a pesar de sus éxitos y su gran fuerza explicativa, no conducía siempre a conclusiones acertadas. No obstante, con la ayuda de una profunda intuición, N. Bohr supo aumentar considerablemente su alcance enunciando el "principio de correspondencia", al cual debemos prestar nuestra atención un instante.

La teoría electromagnética clásica de Maxwell Lorentz suministraba una imagen del proceso de emisión de radiación por la materia que debía permitir el cálculo exacto de la frecuencia, amplitud y polarización de la radiación emitida. Desgraciadamente, la naturaleza discontinua de los procesos reales de absorción y emisión revelada por los trabajos de Planck, la estructura discontinua de la propia radiación resultado de la introducción de la noción de fotón, no permitían confiar ya en la teoría de Maxwell Lorentz para obtener una descripción completa de la realidad física. La antigua teoría de los cuantos se adaptaba, por el contrario, a la representación de estas discontinuidades y, mediante las transiciones de Bohr y de su ley de frecuencias, llevaba a conclusiones a menudo excelentes en la determinación de las frecuencias de las líneas espectrales. Pero, como esta teoría abandonaba el punto de vista ondulatorio, de la teoría clásica, no alcanzaba ya a prever, ni siquiera a definir con claridad, la intensidad y la polarización de una radiación y resultaba impotente para dar una interpretación de los fenómenos de dispersión y de difusión, en los cuales la noción ondulatoria de diferencia de fase interviene de una manera esencial. Para intentar colmar esta laguna, Bohr enunció en 1916 el principio de correspondencia. La idea que le guió parece poderse enunciar así: ya que la teoría de Maxwell Lorentz suministra una buena interpretación de los fenómenos electromagnéticos a escala habitual, es necesario suponer que ella constituye una representación estadística exacta de los conjuntos de procesos elementales en los que intervienen un gran número de cuantos. Admitiendo este postulado verosímil, y extrapolándolo incluso con cierta osadía en el dominio de los números cuánticos, Bohr logró obtener, mediante fórmulas que, sin ser muy precisas, lo son lo suficiente para ser utilizables, un método de previsión aproximada de la intensidad y la polarización de las líneas espectrales. Empleado con éxito, especialmente en las teorías del efecto Stark y del efecto Zeeman, este método, por imperfecto que fuera entonces, ofrecía ya una valiosa línea directriz para la elaboración de las teorías cuánticas y para el estudio del paso de los fenómenos discontinuos de la microfísica a los fenómenos de apariencia continua de la escala macroscópica: su fecundidad está, aun actualmente, lejos todavía de ser agotada.

Conviene señalar desde ahora que la teoría de Bohr y sus prolongaciones introducían en Física teórica imágenes nuevas, de las cuales parecía difícil encontrar una interpretación. El átomo y, más generalmente, los sistemas microfísicos cuantificados aparecían como si se hallaran casi siempre en estados estacionarios que no evolucionaban en el transcurso del tiempo, pudiéndose efectuar el paso de un estado estacionario a otro, bruscamente, por una transición cuántica de la cual no existía ninguna descripción. Si los estados estacionarios no evolucionaban, nada podía explicar por qué la transición cuántica se producía en un momento dado y no en otro. De acuerdo con una importante memoria de Einstein, quien en 1917 había demostrado la relación entre la ley de las frecuencias de Bohr y la fórmula de Planck para la radiación del cuerpo negro, debían definirse unas probabilidades de transición por unidad de tiempo. Frente a esta situación, eran posibles dos actitudes. Se podía considerar, de conformidad con las ideas clásicas en Física, que la falta de evolución de los estados estacionarios y el carácter brusco e indescriptible de las transiciones cuánticas no eran sino aparentes, que las transiciones cuánticas eran procesos sin duda muy rápidos, mas cuya evolución un día podría ser descrita, y que los estados estacionarios, menos inmutables de lo que aparentan, sufrían perturbaciones ocultas susceptibles de hacerles pasar por fases de inestabilidad y de originar de esta forma las transiciones: según este punto de vista, la intervención de las probabilidades de transición permanecía de acuerdo con la concepción tradicional según la cual la probabilidad es la expresión de nuestra ignorancia de una causalidad oculta. Se podía también adoptar una actitud completamente opuesta a la anterior y admitir que los estados estacionarios no evolucionan absolutamente y están, en cierta medida, fuera del tiempo, mientras que las transiciones cuánticas son procesos instantáneos que escapan completamente a toda descripción en términos de espacio y tiempo: las probabilidades de transición se convierten ahora en la expresión de una especie de puro azar, de absoluta contingencia, que no resulta ya de nuestra ignorancia de una causalidad oculta. Bohr, desde el comienzo de sus trabajos, parece ser que se inclinó hacia esta última opinión, en favor de la cual ejerció, cada vez más, el peso de su gran autoridad. Para él, los estados estacionarios y las transiciones cuánticas son procesos de un tipo completamente ignorado por la Física clásica, que "trascendiendo" el marco del espacio y del tiempo escapan a toda interpretación racional. Seguramente se podrá decir que esta manera de ver la sugieren naturalmente las concepciones básicas de la teoría de los cuantos y que abre nuevos horizontes dignos de interesar enormemente a los filósofos y a los epistemólogos. Pero es cierto también que esta posición lleva consigo el riesgo de caer en posturas temerarias. Desplazando la línea de demarcación entre la Física y la Metafísica, esta postura coloca esa frontera en un dominio que parece no obstante pertenecer todavía a la Física. Constituye una especie de renuncia a la meta que siempre se había asignado, con éxito constante, la investigación científica, que consiste en llegar a explicar y a comprender; lleva consigo el gravísimo peligro de recaer en el tipo de explicaciones puramente verbales que durante mucho tiempo han entorpecido el progreso de los conocimientos humanos. Volveremos a hablar, más tarde, de estas cuestiones.

La mecánica ondulatoria y sus prolongaciones

Hacia 1923, la antigua teoría de los cuantos parecía haber llegado al límite de su fuerza explicativa. Teoría híbrida, que utilizaba todavía las concepciones y las leyes de la antigua mecánica puntual, pero imponiéndole restricciones "quánticas" completamente ajenas a ellas, había cosechado, sin embargo, grandes éxitos y proyectado un foco luminoso en el dominio, hasta entonces tan oscuro, de la Física atómica. Pero comenzaba a evidenciarse que, en muchos casos, sus previsiones no coincidían con los hechos experimentales. Por eso, se sentía la necesidad de proceder a una profunda reforma, aunque conservando aquello que en la teoría parecía exacto.

El primer intento hecho en este sentido, en unas notas aparecidas en los Comptes rendus de l'Académie des sciences en el otoño de 1923, y desarrollado en una tesis doctoral sostenida en noviembre de 1924, se debe al autor de estas líneas. Estos trabajos constituyen la base de lo que hoy se ha dado en llamar "Mecánica ondulatoria". El principal objetivo perseguido por su autor era obtener una teoría sintética de las ondas y de los corpúsculos, en la cual el corpúsculo apareciera como una especie de accidente incorporado a la estructura de una onda y guiado por su propagación. La situación existente en 1923 parecía exigir un esfuerzo de este género, cuya necesidad era sentida por Einstein desde mucho tiempo atrás; pero únicamente para el caso particular de la luz y los fotones. En este caso particular, las comprobaciones sucesivas de la teoría de los cuantos de luz y el descubrimiento, entonces muy reciente, del efecto Compton parecían demostrar la buena base de las profundas intuiciones de Einstein. Pero en el caso de otras partículas distintas a los fotones, en el caso de corpúsculos materiales tales como los electrones, ¿debía idearse una dualidad onda corpúsculo parecida y sacar las correspondientes consecuencias? ¿Debía asociarse a la imagen corpuscular, normalmente admitida para un electrón, la imagen de una onda que le acompañara en su movimiento? Era ésta una hipótesis muy atrevida, pues nada en este momento parecía sugerir su exactitud.

No obstante, ciertos indicios podían ponernos en el camino adecuado: la teoría de Hamilton Jacobi, desarrollada desde hacía casi un siglo en el marco de la Mecánica analítica clásica, parecía indicar un secreto parentesco entre el movimiento de los puntos materiales y la propagación de una onda; la intervención de números enteros en las fórmulas de cuantificación de la antigua teoría de los cuantos inducía a pensar que fenómenos de interferencias o de resonancia debían intervenir en la estabilidad del movimiento de los electrones interatómicos, etc. Fue inspirándome en estos argumentos cómo pude sentar las primeras bases de la Mecánica ondulatoria y obtener, con ayuda de los razonamientos relativistas, las relaciones que existen entre la energía y la cantidad de movimiento de un corpúsculo y la frecuencia y la longitud de onda de la onda que las ideas de la Mecánica ondulatoria le asocian. Aplicadas al caso particular del fotón, estas fórmulas dan inmediatamente aquellas que Einstein se vio obligado a admitir en su teoría de los cuantos de luz. La nueva teoría permitía además interpretar el significado de las condiciones de cuantificación de la antigua teoría de los cuantos.

Este audaz intento habría pasado quizá desapercibido, si, desde enero de 1925, Einstein no hubiese señalado su importancia y no hubiese llevado a cabo profundas aplicaciones de todo ello a la teoría de los gases. En la primavera de 1926, en una serie de admirables trabajos, Erwin Schrödinger estableció sobre bases matemáticas rigurosas el formalismo de la Mecánica ondulatoria y desarrolló un método abstracto, pero muy fecundo, para tratar los problemas de Mecánica ondulatoria de los sistemas de corpúsculos. Mostró cómo debía operarse la determinación de los estados estacionarios de los sistemas atómicos, hallando de nuevo, y mejorando, las previsiones de la antigua teoría de los cuantos. Después logró demostrar que el formalismo desarrollado en 1925 por Werner Heisenberg no era más que una transposición matemática del formalismo de la Mecánica ondulatoria, lo que explica la coincidencia de sus resultados. Tras las publicaciones de Schrödinger, se llevaron a cabo un considerable número de aplicaciones de la Mecánica ondulatoria bajo la forma que él le había dado y los éxitos obtenidos confirmaron la importancia del progreso realizado. No obstante, era de desear la aportación de una prueba experimental directa de la onda asociada al electrón: esta prueba no se hizo esperar mucho tiempo pues, ya a principios de 1927, dos ingenieros americanos, C. J. Davisson y L. H. Germer, descubrían, sin habérselo propuesto, el fenómeno de la difracción de electrones por los cristales, de forma análoga al fenómeno de difracción de los rayos X por los cristales, con lo cual pudieron comprobar la exactitud de los conceptos de la Mecánica ondulatoria y las fórmulas en las que reposa. Repetidas bajo formas muy diversas por un gran número de investigadores, extendidas a otras partículas distintas a los electrones e incluso a los neutrones, los experimentos de difracción por los cristales, que son actualmente objeto de importantes aplicaciones técnicas, aportaron la prueba innegable de que la asociación de ondas y corpúsculos no es una simple visión espiritual. Por lo demás, otras pruebas se han unido a aquéllas obteniéndose la difracción de los electrones sobre el borde de una pantalla y la interferencia de ondas electrónicas por procedimientos análogos a los denominados, en óptica, biprisma de Fresnel, orificios de Young o finas láminas.

Aparte de la onda asociada, un nuevo elemento vino a añadirse a nuestros conocimientos sobre las propiedades del electrón y otros corpúsculos: se trata del spin. Fenómenos espectroscópicos y magnéticos considerados como anomalías, porque no se lograba interpretarlos, demostraron que no era suficiente caracterizar al electrón por su masa y su carga eléctrica, y en 1925, G. F. Uhlenbeck y S. A. Goudsmit, para explicar estos hechos, no dudaron en atribuir al electrón una especie de rotación interna que se traducía por la aparición de un momento de cantidad de movimiento y de un momento magnético "propios": esta nueva característica, a la que se da el nombre inglés de spin, se ha revelado como totalmente fundamental, quizá como la más fundamental de los corpúsculos elementales, lo cual sugiere, en cierto sentido, un acercamiento a las turbulencias de Descartes. Aun cuando Uhlenbeck y Goudsmit y sus émulos pudieron demostrar rápidamente que la introducción del spin permitía interpretar las anomalías antes apuntadas, se creó por un instante la situación paradójica de que el spin, descubierto en el momento en que la Mecánica ondulatoria cobraba impulso, aparecía como algo completamente extraño a esta mecánica. Únicamente en 1929, P. A. M. Dirac logró construir una forma de mecánica ondulatoria que a la vez gozaba del invariante relativista y contenía el spin. Esta teoría del electrón de Dirac, que permite un gran número de exactas suposiciones tanto en lo que respecta a las estructuras finas de los espectros de líneas como en lo concerniente a las anomalías espectroscópicas y magnéticas, ha sido objeto de un considerable número de trabajos y constituye una de las piedras angulares de la Física teórica contemporánea.

La Mecánica ondulatoria, completada por la teoría de Dirac, ha sido objeto de numerosas y fructíferas aplicaciones de las que no podemos dar más que una incompleta relación. Así, por ejemplo, permitió a G. Gamow dar una interesante imagen de la desintegración radiactiva que únicamente las nuevas concepciones podían suministrar. La Mecánica ondulatoria de los sistemas de partículas en la forma de Schrödinger, junto al "principio de exclusión" de Pauli, válido para toda una categoría de partículas entre las que se encuentran los electrones, condujo a distinguir dos tipos de partículas presentes en la materia: las partículas de función de onda antisimétrica, o fermiones, sometidas al principio de exclusión y a la estadística de Fermi Dirac, y las partículas con funciones de onda simétricas, o bosones, no sometidas al principio de exclusión y que obedecen a la estadística de Bose Einstein. Esta distribución de las partículas en dos categorías, íntimamente vinculada además con el valor de su spin, juega un papel esencial en la Física contemporánea.

La Mecánica ondulatoria, precisada de esta manera, permitió también a W. Heisenberg obtener una magnífica teoría del espectro del helio dando cuenta de las particularidades, hasta entonces misteriosas, de este espectro y permitiendo hallar directamente en su estructura una prueba de la validez del principio de Pauli. W. Heitler y F. London, partiendo de la teoría de la molécula de hidrógeno, lograron demostrar que únicamente la Mecánica ondulatoria permite comprender la verdadera naturaleza de la noción de valencia química y de las fuerzas que aseguran la estabilidad de los edificios moleculares. Este trabajo ha sido el punto de partida del desarrollo de una nueva rama de la teoría física, designada hoy con el nombre de Química teórica o Química cuántica, la cual, estudiando de una manera general los enlaces químicos y sus transformaciones, suministra, día a día, nuevos conocimientos sobre la estructura y propiedades de las moléculas (principalmente, moléculas orgánicas), sobre cinética química, etc. Sin insistir en las aplicaciones científicas y técnicas de la difracción de electrones para el estudio de las estructuras moleculares, añadiré que la óptica electrónica, cuyo rápido desarrollo es bien conocido, adquiere su pleno significado a la luz de la Mecánica ondulatoria, especialmente en cuestiones como la del "poder separador"; es también indudable la importancia fundamental que ha cobrado el microscopio electrónico en numerosos dominios de la ciencia teórica y aplicada, especialmente en metalografía y en microbiología.

Volviendo ahora a las cuestiones de principio, debemos decir unas palabras acerca del sentido que ha tomado, desde hace unos treinta años, la interpretación de la Mecánica ondulatoria. El ensayo efectuado en 1925 por Werner Heisenberg, que trabajaba entonces en Copenhague bajo la dirección de Niels Bohr, lo orientó acentuadamente hacia las concepciones del autor de la teoría cuántica del átomo, antes mencionada; se inspiraba también en ideas positivistas o fenomenológicas que poco tiempo después debían convertirse en el credo de la escuela filosófica de Wiener Kreis y según las cuales las teorías físicas deben introducir únicamente magnitudes cuyos valores puedan ser directamente observados y evitar toda representación en la cual determinados elementos fueran inaccesibles experimentalmente. Animada por este "espíritu de Copenhague", que en cierto modo recordaba el de la antigua escuela energetista, la "Mecánica quántica" de Werner Heisenberg, denominada a veces "Mecánica matricial" en virtud de la forma matemática que adopta, se presentaba como un puro formalismo rechazando toda imagen del mundo microscópico, pero susceptible de dar cuenta de todos los fenómenos observables de la escala atómica mediante la ayuda de sencillos cálculos algebraicos. Si bien E. Schródinger logró demostrar en 1926 que el formalismo de la Mecánica cuántica podía considerarse como una simple transposición algebraica de aquel en que desembocaba la Mecánica ondulatoria, estas dos nuevas formas de la microfísica estaban impulsadas por tendencias opuestas, análogas a las que habían animado, tiempo atrás, a los atomistas de una parte y a los energetistas de otra: la Mecánica ondulatoria intentaba obtener una representación de los fenómenos microfísicos en el marco del espacio y del tiempo, dando una imagen clara e inteligible de la asociación de ondas y partículas, mientras que la Mecánica cuántica, considerando vanas estas preocupaciones, se contentaba con construir un formalismo capaz de determinar con exactitud la previsión de los fenómenos constatables experimentalmente.

Esta última corriente de ideas es la que ha conducido a la interpretación probabilista de la Física cuántica desarrollada principalmente por N. Bohr, W. Heisenberg, M. Born, W. Pauli y P. A. M. Dirac (por otra parte, con matices algo distintos según los autores, especialmente en el caso de N. Bohr). Según esta interpretación, en Física cuántica no hay más que leyes de probabilidad, probabilidad "pura", sin ningún mecanismo causal subyacente e ignorado. La onda de la Mecánica ondulatoria no es ya, en forma alguna, una realidad: no es más que una solución de una ecuación en derivadas parciales del tipo clásico de la ecuación de ondas, solución que resulta ser el instrumento matemático apropiado para la representación de la probabilidad del resultado de ciertas medidas. El corpúsculo toma también un aspecto fantasmagórico: no existe ya su localización permanente en el espacio, ni el valor en cada instante de su energía y su cantidad de movimiento; está presente, en general, en el estado potencial en toda una extensa región del espacio y distribuido estadísticamente entre varios estados de movimiento. De manera experimental es posible localizar perfectamente el corpúsculo y atribuirle un valor a su cantidad de movimiento, pero siempre fugazmente y jamás en el mismo instante: esto es lo que expresan en términos matemáticos las relaciones de incertidumbre de Heisenberg. Para traducir las apariencias corpusculares y ondulatorias, tan netamente caracterizadas en el caso de la luz por el efecto fotoeléctrico de una parte y por las interferencias de otra, en el caso de los electrones por las trayectorias visibles en las cámaras de Wilson por un lado y la difracción de los cristales por otro, N. Bohr introdujo el concepto de "complementariedad"; el corpúsculo y la onda serían dos aspectos complementarios de la realidad, de una realidad que escaparía a toda descripción más inteligible.

Otra interpretación de la Mecánica ondulatoria, más próxima a las intuiciones que le dieron origen y más cercana a los habituales conceptos físicos, fue esbozada en 1926-1927 por el autor de este capitulo, pero se enfrentó con graves dificultades matemáticas y fue abandonada. Quizá no era su hora todavía. Volveremos a hablar de ella más adelante.

¿Por qué la interpretación probabilista, a pesar de lo poco que satisface a nuestro deseo instintivo de comprender, ha sido admitida desde hace unos treinta años por la casi totalidad de los físicos, aparte de las notables excepciones constituidas por Planck, Einstein y Schrödinger? Sin duda porque coincidía con las tendencias positivistas de algunos de ellos, pero también porque se expresaba mediante un formalismo coherente utilizando elegantes algoritmos matemáticos y sobre todo porque parecía capaz de responder a todas las cuestiones que podía plantear el reconocimiento de los fenómenos observables sin utilizar ninguna hipótesis más o menos arbitraria. Esta Mecánica cuántica que, sin duda para evitar cualquier imagen realista, ni siquiera quería ser calificada de Mecánica ondulatoria, conoció un momento de apogeo pero probablemente ahora su estrella empieza ya a declinar. Más adelante examinaremos detenidamente esta cuestión.

El misterio de las partículas de la microfísica

Hasta 1930, el número de partículas que se manifestaban a escala microfísica era bastante limitado. El electrón, unidad de electricidad negativa, muy ligero y con gran movilidad; el protón, unidad de electricidad positiva, más pesado y con menor movilidad; el fotón, corpúsculo de energía que formaba parte de la estructura de todas las radiaciones y que desempeñaba un papel bien distinto de los dos anteriores. Estos parecerían ser los elementos esenciales que intervenían en la estructura de las distintas formas de la materia y de la energía; la línea de demarcación entre materia y energía había quedado, en cierto modo, suprimida por el principio relativista de la inercia de la energía.

El desarrollo de la física nuclear, nacida de los sensacionales descubrimientos iniciales de Henri Becquerel y de Pierre y Marie Curie sobre radiactividad natural (1896-1898), seguidos de las primeras realizaciones de transmutaciones artificiales (Rutherford, 1919) y del descubrimiento de los isótopos (J. J. Thomson, Aston), recababa, cada vez más, la atención de los físicos hacia ese corazón del átomo que es el "núcleo", cargado positivamente y provisto de la casi totalidad de la masa del edificio atómico. Se sabía ya que este núcleo tenía una estructura compleja y era susceptible de desintegrarse ya sea espontáneamente, ya por la acción de violentos choques exteriores, pero en un principio pareció natural suponer que el núcleo estaba constituido por protones y electrones, únicas partículas elementales materiales conocidas en aquella época.

A partir del año 1930, esta situación evolucionó rápidamente como resultado de la evidente existencia de nuevas partículas hasta entonces desconocidas. La puesta a punto en los laboratorios de una "artillería" de bombardeo corpuscular, capaz de provocar transmutaciones nucleares mediante choques, y el estudio de los rayos cósmicos que, procedentes de los espacios intersiderales, pueden provocar también tales transmutaciones, permitió reconocer la existencia del neutrón, partícula eléctricamente neutra, de masa aproximadamente igual a la del protón, y la del electrón positivo o positrón, partícula inestable, de corta vida, cuya masa es igual a la del electrón ordinario o negatrón, pero cuya carga eléctrica positiva es igual y de signo contrario a la del electrón. Se ha demostrado que un par electrón positrón es susceptible de aniquilarse, originando una emisión de fotones, fenómeno que constituye una verdadera desmaterialización de la materia: inversamente, una radiación puede hacerse desaparecer, dando origen a un par positrón electrón, lo que constituye una verdadera materialización de la radiación.

Pero esto no es todo. El estudio de la radiación continua b de los cuerpos radiactivos llevó a los teóricos, para salvar el principio de conservación de la energía que no parecía satisfacerse en este fenómeno, a imaginar la existencia de un corpúsculo neutro extraordinariamente ligero, al que dieron el nombre de "neutrito"; este corpúsculo se emitiría al mismo tiempo que la radiación b continua y, como es prácticamente indetectable, la energía que contiene parecería desaparecer. Además, en 1935, el físico japonés Yukawa, a partir de audaces consideraciones teóricas, no dudó en anunciar la probable existencia de partículas todavía desconocidas cuya masa, que él evaluó próxima a 200 veces la del electrón, tendría un valor intermedio entre la masa del protón y la del electrón y por esta razón no tardó en dárseles el nombre de "mesones". Poco tiempo después, se reconoció, en la radiación cósmica, una nueva partícula, designada hoy con el nombre de mesón m, que parecía responder exactamente a las suposiciones de Yukawa.

Todos estos descubrimientos condujeron rápidamente a una completa renovación de las teorías de la física nuclear. Poco tiempo después del descubrimiento del neutrón, Heisenberg formuló la hipótesis de que el núcleo está constituido por protones y neutrones y que los electrones y positrones emitidos en las desintegraciones nucleares no tienen existencia como tales en el núcleo, sino que surgen en la desintegración mediante la transformación de un neutrón en protón, o inversamente. Esta hipótesis demostró inmediatamente su fecundidad, permitiendo interpretar un considerable número de fenómenos de la Física nuclear: actualmente se la puede considerar como una de las bases más sólidamente establecidas de la física del núcleo. Sin embargo, la naturaleza de las fuerzas de muy corto radio de acción y ampliamente independientes de las cargas eléctricas, que unen protones y neutrones en el núcleo y aseguran la estabilidad del conjunto, era todavía misteriosa. Los razonamientos de Yukawa, confirmados por el ulterior descubrimiento de los mesones, sugirieron una interpretación: de la misma forma que los fotones van unidos al campo electromagnético, los mesones estarían vinculados a un campo "mésico", dando lugar a fuerzas estáticas de corto alcance, y serían estas fuerzas las que unirían los constituyentes del núcleo. Esta teoría "mésica" de las fuerzas nucleares suscitó grandes esperanzas y dio lugar a un número considerable de trabajos: a pesar de ciertos éxitos, me parece que en la actualidad puede afirmarse que no ha dado de sí todo lo que se esperaba. Al cabo de algunos años se volvió a imágenes bastante groseras del modelo nuclear (modelo de la gota líquida, hipótesis de las capas nucleares, etc.), las cuales dieron resultados bastante interesantes, pero que no pueden considerarse como definitivos.

Mientras la física del núcleo progresaba muy rápidamente desde el punto de vista experimental más lentamente y con mayores dificultades desde el punto de vista teórico , la Física teórica cuántica adquiría una forma cada vez más abstracta, cada vez más alejada de las primitivas intuiciones de la Mecánica ondulatoria. Así se constituyó lo que se llama hoy "teoría cuántica de campos", considerada por muchos científicos teóricos como la forma más perfecta de la Física cuántica actual. Conservando y prolongando la interpretación probabilista y positivista de la Mecánica cuántica y la noción de complementariedad, esta teoría se presenta como un elegante formalismo, en apariencia riguroso, que permite representar sin ninguna imagen concreta las propiedades de las partículas y de los campos y sus interacciones mutuas. .Sin dar ninguna indicación sobre la naturaleza de los corpúsculos, ni sobre su estructura, se limita a considerar el número de corpúsculos de cada especie y sus variaciones o, más exactamente, las probabilidades de sus variaciones. La teoría cuántica de los campos ha desembocado, como veremos más adelante, en conclusiones exactas, presenta una gran coherencia e incluso los que piensan que no da un cuadro verdaderamente completo de las realidades microfísicas reconocen que esta teoría representa con exactitud ciertos aspectos de la verdad. En especial, obtuvo un resonante éxito unos veinte años atrás (1946 1948). En este momento, W. E. Lamb y R. C. Retherford acababan de evidenciar, mediante procedimientos radioeléctricos, unas estructuras finas en el espectro del hidrógeno que no coincidían exactamente con las previstas por las más perfectas teorías anteriores: una interpretación sugerida por H. Bethe y desarrollada por los protagonistas de la teoría de los campos (Tomonaga, Schwinger, Feynman...), permitió determinar exactamente el resultado experimental y, confirmando este gran éxito, otros métodos análogos permitieron dar cuenta del valor anormal del momento magnético del electrón y de las propiedades del positrón. Puede señalarse, por otra parte, que el éxito de los razonamientos de la teoría cuántica de los campos en la interpretación de estos fenómenos puede sugerir que, por debajo del nivel de la realidad microfísica en la que se manifiestan los corpúsculos, existe un nivel de la realidad más profundo y más oculto todavía, nivel con el cual los corpúsculos del nivel microfísico entrarían constantemente en interacción, pudiendo en ciertos momentos quedar sumergidos en él, o emerger del mismo. Así, esta realidad profunda, que D. Bohm llamó más tarde "nivel subcuántico", llenaría lo que nosotros llamamos el vacío, el cual poseería pues ciertas propiedades físicas, lo que parecería impuesto por la existencia de los fenómenos que la teoría cuántica de campos designa con el nombre de "polarización del vacío".

Los éxitos cosechados hace quince años por la teoría cuántica de los campos atrajeron sobre ella la atención de los jóvenes científicos pero, hay que decirlo, estos éxitos no tuvieron un gran futuro y la teoría de los campos ocasionó también ciertos problemas. En particular, esta teoría determina siempre, para la energía propia de la partícula, valores infinitos, evidentemente inaceptables. Para evitar esta dificultad esencial, se han utilizado diversos artificios (especialmente "procedimientos de cortadura", evitando la divergencia de ciertas integrales), pero estos procedimientos son arbitrarios y, de todo ello, nada satisface plenamente. La dificultad ante la que se encuentra la Física actual en este punto parece ser de naturaleza fundamental: admitiendo el punto de vista de la interpretación probabilista, la teoría cuántica de los campos impide, a priori, la consideración de poder localizar los corpúsculos y atribuirles una estructura extensa, como consecuencia de la definición por esta teoría de conceptos análogos a los de "radio del electrón" de la teoría clásica de Lorentz. Personalmente creo que es preciso establecer, en cierto modo, la idea de localización y estructura de los corpúsculos.

Lo que imprime todavía mayor urgencia al problema de la edificación de una teoría de la estructura de los corpúsculos y de sus propiedades, es el sorprendente aumento del número de tipos de corpúsculos descubiertos en estos últimos quince años. Después del mesón b, vino el mesón p, de masa un poco mayor, y más tarde los mesones K, más pesados todavía. Se han descubierto también partículas con masas superiores a las del protón y por esta razón, designadas con el nombre de hiperones. Estas partículas se transforman unas en otras y, a menudo, de varias maneras distintas. Las cosas son, pues, en este dominio, infinitamente más complejas de lo que se imaginaba hace treinta años. En la actualidad, no existe ninguna teoría que permita explicar el hecho de que los corpúsculos actualmente conocidos sean tan numerosos y posean unas masas con valores discretos perfectamente determinados, ni de suministrar una imagen de las múltiples transformaciones que tienen lugar entre ellos.

En presencia de todas estas dificultades de interpretación, nos parece que, contrariamente a lo que puedan pensar ciertas personas mal informadas, la Física teórica atraviesa en estos momentos un período de gran marasmo. Incluso los más fervientes partidarios de su orientación actual, así lo reconocen y uno de ellos, R. Oppenheimer, escribía recientemente: "Es evidente que nos encontramos en vísperas de una revolución muy grave, probablemente muy heroica y en todo caso completamente imprevisible, de nuestras interpretaciones v nuestras teorías físicas".

Una tal situación legitima la pregunta acerca de si la causa de nuestros problemas no habrá sido la interpretación formal y puramente estadística impuesta hace treinta años a la mecánica ondulatoria, puesto que dicha interpretación omitía toda imagen concreta e inteligible. Precisamente por esto, desde 1952, junto a los trabajos de D. Bohm y J. P. Vigier, he intentado reconsiderar mis ideas de 1926-1927, que tienden a representar el corpúsculo de una forma concreta, como un accidente localizado surgido en la estructura de una onda extensa de carácter físico, y obtener así una representación clara e inteligible de la asociación de ondas y partículas, bastante parecida a las imágenes que utilizaba la antigua Física. En unos trabajos de gran interés, actualmente en curso de realización, B. Bohm y J. P. Vigier intentan completar esta imagen considerando al vacío como el lugar ocupado por un medio oculto de estructura turbulenta y violentamente caótica: las partículas y las ondas asociadas podrían asimilarse, según esta teoría, a unas superestructuras que emergen al nivel microfísico a través de la superficie de este sustrato. Estos ensayos parecen muy prometedores y vale la pena proseguirlos.

Como ha dicho R. Oppenheimer, las próximas transformaciones de la Física cuántica son imprevisibles, pero todo hace suponer que se acerca un nuevo período de crisis y de inestabilidad. No faltan tampoco signos precursores que anuncian que esta teoría se halla indudablemente en vísperas de una de esas "mutaciones bruscas" que, en la historia de las ideas, como en la de las especies, marcan las etapas de la evolución.

Nota de atomTIC: Este artículo, de finales de finales de los años 60 del siglo XX, tiene un gran interés a la hora de conocer las ideas que inspiraron el nacimiento de la física cuántica. Sin embargo, las valoraciones que hace el autor respecto a una "futura" necesidad de superar la interpretación probabilística, se pueden considerar hoy en día completamente refutadas por la evolución, tanto teórica como experimental, de la disciplina.