Realidad e Incertidumbre en la Física
*Leopoldo García-Colín Scherer 
Introducción

Antes de abordar el tema específico contenido en el título de este ensayo, es pertinente intentar definir "realidad" con la mayor claridad posible. En su conocida obra sobre el conocimiento humano George Berkeley afrma lo siguiente: 

Es evidente para cualquiera que examina los objetos del conocimiento humano, que estos son, o bien ideas impresas en los sentidos; o bien aquellos que percibimos poniendo atención a las pasiones y operaciones de la mente; o finalmente ideas formadas con la ayuda de la memoria y de la imaginación ya sea comprendiendo, dividiendo o escasamente representando aquellos objetos percibidos originalmente en las formas ya mencionadas. Por mi vista tengo las ideas de la luz, colores con sus varios grados y variaciones. Por mi tacto percibo lo duro y lo suave, calor y frío, movimiento y resistencia y de todos ellos más o menos en cuanto a grados o cantidad. El olfato me proporciona olores, el paladar sabores, el oído transmite sonidos a la mente en toda su variedad de tono y composición. Y como muchos de estos, se observa, se acompañan unos a otros aparecen marcados con un solo nombre y considerados como una sola cosa. Así por ejemplo un cierto color, olor, figura y consistencia aparecen a menudo combinados y se consideran como algo distintivo dado por el nombre "manzana"; otras colecciones de ideas constituyen una piedra, un árbol, un libro y objeto similares que como son agradables o desagradables excitan las pasiones de amor, odio, alegría, tristeza y así otros sentimientos. 
¿Aceptaríamos este discurso como una descripción de la realidad? Kant en su gigantesca obra Crítica de la razón pura hace también consideraciones largas y extensas sobre el mismo tema: "Las ideas impresas en los sentidos por el Autor de la Naturaleza se llaman cosas u objetos reales. Aquellas excitadas en la imaginación siendo menos regulares, vívidas y constantes se llaman ideas o imágenes de cosas que copian o representan". Kant va más lejos y afirma que "hay un rerum natura" y por lo tanto la distinción entre realidades y quimeras retiene su fuerza total. Ambas existen en la mente igualmente y en ese sentido son ideas similares. Sus ideas al respecto, largas y complicadas para exponer aquí, las considera en un solo pensamiento que a mi juicio es una visión muy clara de lo que entendemos como realidad: "Cuando yo pienso en la realidad de una cosa realmente pienso más en su posibilidad pero no en la cosa, puesto que ella no puede contener más en realidad que la contenida en su posibilidad completa. La realidad es la conjunción de un objeto [cosa] con su percepción".

Vale la pena hacer notar aquí, para los propósitos de este ensayo, que para Kant los conceptos de espacio y tiempo no son realidades, son meras ideas que nos permiten describir fenómenos naturales de una forma racional (útil). Él las llama "intuiciones a priori" y se utilizan para conocer objetos externos y dar lugar a una cognoscividad sintética independiente de toda experiencia. Un ejemplo nítido de esta aplicación es la geometría, que explota de manera lógica y rigurosa el concepto de espacio en varias dimensiones y a través de la cual podemos describir formas y otras propiedades de objetos en la naturaleza.

Con estas ideas, espero, la discusión sobre el tema invocado en el título sea más accesible en cuanto a lo que los científicos de las ciencias físicas, por lo menos, más o menos aceptan o entienden sobre el concepto de realidad. No obstante, antes de entrar a una discusión sobre lo que hoy se entiende por incertidumbre en la física conviene hacer un repaso del concepto de certidumbre, o determinismo, como mejor se le conoce, en la física clásica.

Determinismo y predictibilidad

Como entendemos rigurosamente el determinismo fue introducido a las ciencias físicas por Laplace en 1814. Él imaginaba la existencia de un "demonio" súper inteligente que a un instante de tiempo conoce el estado de todos y cada uno de los elementos que componen al universo y, más aún, tiene posibilidades ilimitadas para calcular. Este demonio tendría ante sus ojos todo el futuro y el pasado del universo. En realidad Laplace tenía en mente el movimiento de los planetas y extrapolaba sus ideas a un universo compuesto por cuerpos interactuando entre sí. Esta definición es inútil: tal demonio no existe y si existiera no podría comunicarse con nosotros. Una discusión más extensa sobre el concepto de determinismo está fuera de lugar. El problema aparece cuando los usuarios de esta visión determinística sustituyen al demonio de Laplace por un observador humano. Esto reduce el problema del determinismo a un plano más realista, ya que en las ciencias físicas estamos forzados a trabajar con datos incompletos e imprecisos y con ellos lo más que podemos intentar es predecir el comportamiento de un sistema u objeto. Y en efecto, el observador humano no tiene nunca en sus manos la información completa sobre todos los elementos que componen a un fenómeno dado. Lo más que podemos garantizar es la precisión con que puede determinarse un evento en la naturaleza.

Tomemos por ejemplo la determinación de la posición de un planeta sobre su órbita o la órbita deseada para un satélite artificial lanzado desde la Tierra. La precisión con que pueden determinarse ambos eventos, descritos matemáticamente por las ecuaciones diferenciales de la mecánica newtoniana, es pasmosa. No obstante si en lugar de un objeto grande consideramos a un fluido, agua por ejemplo, y queremos predecir la naturaleza de su flujo bajo circunstancias conocidas, la predictibilidad ya no es tan certera. A pesar de que podemos asumir que cada molécula del fluido ejecuta un movimiento gobernado por las mismas ecuaciones newtonianas del ejemplo anterior, el movimiento de una "partícula del fluido" compuesta por millones y millones de moléculas se torna mucho más complejo. Y sin embargo las ecuaciones de la hidrodinámica clásica, digamos las de Navier-Stokes, son, en principio, capaces de describir cómo se desenvuelve un flujo en el transcurso del tiempo (el futuro ¡no el pasado!) con precisión ilimitada. Un ejemplo drástico de la predictibilidad deficiente de estas ecuaciones es el clima. Los factores externos que intervienen en su predictibilidad son tan variados y complejos que las ecuaciones hidrodinámicas tienen que complementarse con mucha información adicional, casi al grado de que la predictibilidad del clima tiene más un cariz probabilístico. Esta nueva modalidad, la aparición de los conceptos de probabilidad en la descripción de fenómenos físicos, alcanza su clímax a fines del siglo XIX y principios del XX con las estupendas obras de L. Boltzmann y J. W. Gibbs.

De esta discusión se desprende que en las ciencias físicas es mucho más objetivo hablar de la capacidad de un modelo descrito por un cierto sistema de ecuaciones, en general integro diferenciales, en predecir el comportamiento de un fenómeno, un objeto o un conjunto de objetos dados, que persistir en conservar el concepto de determinismo el cual, en el sentido de Laplace, tiene un cariz muy filosófico. La pregunta que surge ahora es ¿cómo evoluciona el concepto de predictibilidad con el advenimiento de la mecánica cuántica? ¿Qué es el llamado "indeterminismo" de Heisenberg? Haremos un intento de responder a estas preguntas.

La mecánica cuántica

Contrario a lo que mucha gente piensa, la mecánica cuántica nació de una necesidad acerca del conocimiento de la naturaleza; de cierta evidencia experimental bien conocida por los físicos del siglo XIX y principios del XX, y no de una teoría abstracta puesta en un lenguaje matemático sofisticado. Tres fueron los hechos experimentales que exhibieron la incapacidad de la física clásica para explicarlos: el primero fue el principio de equipartición de la energía que surge de la mecánica clásica y los ingredientes probabilísticos usados por Boltzmann para tratar con sistemas formados de N (1023) partículas. Grosso modo, este principio establece que la energía que reside en los diferentes grados de libertad de las partículas que componen a un sistema, bajo ciertas condiciones, se reparte "equitativamente" en la energía promedio de cada partícula y por tanto en su energía total. Esto da lugar a que cantidades fácilmente medibles como los calores específicos de sólidos y gases, especialmente, arrojen valores teóricos que no concuerdan con el experimento. 

El segundo fue el famoso problema de la "radiación del cuerpo negro". Un cuerpo negro es aquel que absorbe y emite toda la radiación electromagnética independientemente de su frecuencia. En equilibrio con sus alrededores a una temperatura dada T, un trozo de negro de humo o una caja de zapatos pintada de negro con un pequeño agujero por el cual penetre y salga la radiación, constituyen ejemplos aceptables de dicho cuerpo. La propiedad o atributo más significativo de un cuerpo negro es su densidad de energía, esto es, la energía por unidad de volumen contenida en un cierto intervalo de frecuencia.

Hasta 1900 el gran físico alemán Max Planck pudo dar una deducción teórica para dicha cantidad que concordara con los datos experimentales que ya se conocían en ese entonces y cubrían desde el infrarrojo hasta el ultravioleta. Para ello Planck tuvo que suponer que la radiación emitida o absorbida por los radiadores elementales que constituyen el cuerpo negro y cuya naturaleza es totalmente irrelevante, debido a la ya conocida ley de Kirchhoff, sólo pueden emitir o absorber paquetes discretos de energía. Esta hipótesis revolucionaria que tomó varias décadas en ser aceptada por los físicos de la época, marcó el nacimiento de la mecánica cuántica. 

El tercer factor decisivo que exhibió la incapacidad de la física clásica para explicarlo fue la regularidad observada en las llamadas líneas espectrales, que son nada menos que las huellas dactilares de cada uno de los elementos químicos que conocemos. Cuando un átomo cualquiera se excita o desexcita por la influencia de un factor externo, calentamiento por ejemplo, emite radiación electromagnética a determinadas frecuencias únicas para cada átomo. Desde 1885 en que el numerólogo afícionado y profesor de escuela J. J. Balmer pudo darle un cariz de regularidad a las lineas espectrales, características de dichas emisiones del átomo de hidrógeno, los espectroscopistas de todo el mundo se volcaron sobre el problema de intentar encontrar un patrón de regularidad que fuera común a los espectros de todos los elementos. 

En 1907 W. Ritz finalmente resolvió el problema a través del llamado principio de combinación de Ritz: si Vnm corresponde a la frecuencia de una línea emitida (o absorbida) cuando un elemento pasa de un estado de energía En a otro Em, esta frecuencia siempre se puede expresar como una combinación lineal de frecuencias que corresponden a otros estados de energía distintos de En y Em independientemente de que sean o no observables. Esto no puede explicarse por las leyes de la física clásica. Cuando una frecuencia dada aparece como el "armónico principal" en cualquier movimiento ondulatorio clásico, los armónicos secundarios son múltiplos enteros de ella nunca combinaciones lineales de otras frecuencias.

Este no es el sitio ni el momento adecuado para hacer una narración exhaustiva del desarrollo de la mecánica cuántica, baste señalar que el siguiente paso que se dio después del trabajo de Planck fue el famoso artículo de Einstein de marzo de 1905 "sobre un enfoque heurístico acerca de la emisión y transformación de la luz''. En él Einstein dice: "Hay una diferencia formal profunda entre la concepción teórica que tienen los físicos con respecto a los gases y otros cuerpos ponderables y la teoría de Maxwell sobre procesos electromagnéticos en el vacío". Con ello procede a demostrar, usando la ecuación de Wien para la densidad de energía válida en la región de altas frecuencias, que la radiación electromagnética monocromática a bajas densidades se comparta termodinámicamente como un conjunto de "cuantos de energía" independientes.

Esto le permite dar una interpretación correcta a cuatro hechos experimentales que carecían de una explicación precisa, a saber:

a) el efecto fotoeléctrico
b) el efecto fotoeléctrico inverso
c) la foto luminiscencia
d) la ionización de gases en el ultravioleta
Y aclara con insistencia: no es que la física clasica esté mal. En la región de bajas frecuencias, grandes longitudes de onda, la teoría ondulatoria de Maxwell explica correctamente efectos como la interferencia, difracción, dispersión y polarización de la luz. No así en la región de muy altas frecuencias, donde una interpretación corpuscular de la radiación es más favorecida. En 1907 Einstein da otro paso gigantesco ahora proponiendo que también para radiadores elementales materiales como los átomos en sólidos cristalinos se cumple la propiedad de emitir radiación en paquetes discretos y con ello muestra, por primera vez, que los calores específicos de sólidos cristalinos dejan de obedecer el famoso principio de equipartición, de nuevo en la región de altas frecuencias y bajas temperaturas, mostrando una tendencia de converger al valor cero cuando la temperatura tiende a cero, en total acuerdo con el famoso principio de Nernst.

En un medio si no hostil sí reacio a aceptar estas nuevas ideas, el fisico danés Niels Bohr propone en 1913 el primer modelo atómico para átomos hidrogenoides en el que combina el principio de Ritz con el modelo newtoniano clásico del movimiento planetario, que resulta en aceptar que además de la energía otras variables dinámicas importantes, como el momento angular, estén "cuantizadas", esto es, sus valores sólo pueden diferir entre sí por múltiples enteros de h, la constante de Planck. A pesar de sus logros el modelo de Bohr fracasó estrepitosamente unos años más tarde, lapso en el cual Einstein da una interpretación diferente de los procesos de emisión y absorción de radiación entre moléculas en equilibrio a una temperatura T y en un trabajo no muy conocido (1916) introduce por vez primera el concepto de "ímpetu" asociado a un cuanto de energía. "Damit sind die lichtquanten so gut wie gesichert" (con ello la existencia de los cuantos de luz es prácticamente cierta), expresa en una carta personal a su amigo M. Besso. 

La naturaleza corpuscular de la luz se comprueba de manera inequívoca entre 1922 y 1923 cuando A. H. Compton y P. Debye, de manera independiente, llevan a cabo sus experimentos y con ello el cuanto de luz, bautizado como "fotón" en 1926 por G. N. Lewis, exhibe claramente sus propiedades corpusculares. A partir de este escenario surge la gran revolución de la física contemporánea, la teoría que habría de explicar, sin lugar a dudas, la naturaleza dual de partículas materiales y de la radiación electromagnética: la mecánica cuántica. A grandes rasgos, esto ocurre entre 1923 y 1926 siguiendo tres vertientes en apariencia diferentes. 

En 1923 el físico francés L. de Broglié hace notar, mediante un ingenioso y elegante argumento de simetría, que si a un fotón cuya masa en reposo es cero se le puede asociar un ímpetu, entonces a un partícula material de masa diferente de cero se le puede asociar una onda cuya longitud de onda multiplicada por su ímpetu debe de ser igual a h, la constante de Planck. Tómese la masa de una pelota de tenis, o de futbol, o de un planeta moviéndose con sus velocidades características y se encontrará que la longitud de la onda asociada a ellas es por completo imperceptible. Pero tómese a un protón, un electrón o un neutrón a velocidades pequeñas comparadas con la velocidad de la luz y la longitud de onda tiene un orden de magnitud muy cercano a las distancias características del microcosmos, esto es, distancias interatómicas en cristales, por ejemplo. Y es en este dominio donde surgió la gran polémica: ¿ondas o corpúsculos? Pero antes de adentrarnos en ella veamos las otras dos corrientes del pensamiento detrás de la mecánica cuántica.

En 1925 el físico alemán Werner Heisenberg hizo notar que el fracaso de la teoría de Bohr provenía esencialmente de continuar utilizando conceptos típicos de la física macroscópica: posiciones, velocidades, órbitas, etcétera, que no son observables en el mundo atómico. Lo que se observa en estos sistemas son intensidades (energía) de líneas espectrales y sus frecuencias (longitudes de onda). Con eIlo pudo elaborar una teoría matemática de sistemas atómicos llamada "mecánica matricial", porque, eventualmente, en colaboración con M. Born y P. Jordan pudieron establecer que los objetos matemáticos de dicha teoría y su correspondiente álgebra correspondía al álgebra matricial ya conocida por Cayley desde 1858. Pero lo importante a destacar aquí del método de Heisenberg es que debido a la no conmutabilidad del producto entre dos matrices, existen magnitudes físicas, como la posición y el ímpetu, a los cuales se les asocian matrices que no conmutan entre sí y esto se traduce en la práctica en que no son simultáneamente medibles. La importancia de este resultado la veremos y apreciaremos más adelante. 

Por último, y casi de manera simultánea con su propuesta, De Broglié y sobre todo Erwin Schroedinger, se dan a la tarea de buscar la representación matemática de esa misteriosa onda que puede asociarse con una partícula material. En un trabajo publicado en 1926 y haciendo una analogía muy sutil entre los principios de la óptica física y los métodos avanzados de la mecánica clásica, Schroedinger establece dicha ecuación, que por cierto no es una ecuación de ondas en el sentido literal de la palabra sino una ecuación del tipo difusivo. El gran problema que surge aquí es que la función que satisface dicha ecuación y que en esencia describe los estados accesibles a un sistema cuántico, puede ser una cantidad compleja y por lo tanto carece de un sentido físico (realidad física) concreto. 

En ese mismo año Max Born después de muchos cálculos un tanto sofisticados llega a la conclusión de que la interpretación física más apropiada para dicha función es que su módulo, esto es, el producto de la función por su complejo conjugado represente o defina la probabilidad de que una partícula cuántica se encuentre en un estado determinado a un tiempo dado. La mera idea de que el llamado "determinismo clásico'' sea sustituido por un ingrediente probabilístico en el caso de los sistemas cuánticos desata otra gran polémica entre los grandes físicos de esa época. Esta propuesta constituye en conjunto con la llamada dualidad onda-corpúsculo las bases de la discusión que aquí se persigue. ¿Qué es entonces la realidad en este nuevo escenario de los fenómenos cuánticos? A la discusión de ellos nos dedicaremos en la siguiente sección.

Indeterminismo y física cuántica

La primera manifestación de inconformidad que se manifíesta respecto a la dualidad onda-partícula que deben exhibir el electrón y partículas similares es debida a Bohr, quien le llama una "irracionalidad". Su argumento es muy simple: ¿cómo podemos conciliar la imagen de una partícula concebida como un punto en el espacio con una masa m y velocidad š con la de una onda que de inmediato da la imagen de ocupar una enorme región en el espacio y cuya velocidad no es tan simple de definir?, ¿qué debemos entender entonces por una partícula? No es este el sitio de entrar en una discusión técnica, larga y complicada, sobre cómo evoluciona la discusión sobre esta delicada polémica, sólo haremos un esbozo del razonamiento que lleva al propio Bohr y a Heisenberg a proponer una solución. Debemos advertir que esta solución aceptada como la más "realista" para muchos físicos no es aceptada por otros, que inclusive han propuesto interpretaciones alternativas de la mecánica cuántica. 

Pero vayamos al razonamiento de Heisenberg. Como hicimos notar antes es posible demostrar que las matrices asociadas con la posición de una partícula y su ímpetu (velocidad) no conmutan entre sí. La pregunta que se hizo Heisenberg fue si ambas cantidades son simultáneamente medibles. Usando varios "experimentos pensados" mostró que eso era imposible. La idea es más o menos simple. Supongamos que tenemos una partícula, e.g., un electrón ocupando una posición en el espacio. Esta posición se puede determinar con una precisión deseada, sólo basta iluminar al electrón con radiación de longitud de onda suficientemente pequeña y observar a través de un microscopio. Pero debido al llamado efecto Compton, el impacto de un fotón sobre el electrón cambia de forma abrupta su velocidad (o ímpetu); el cambio es mayor cuanto menor sea la longitud de onda. Eso impide precisar el efecto del cambio en el ímpetu puesto que la dirección del fotón dispersado en la colisión no puede precisarse dentro del haz de fotones que entran al campo del microscopio. Así mostró Heisenberg que si  es la determinación (o incertidumbre) en la posición del electrón y  la de su ímpetu  

El producto de las incertidumbre nunca puede ser menor que la constante de Planck dividida entre dos. Algo similar ocurre si queremos determinar la energía de una partícula a un tiempo t determinado. Si t son las respectivas incertidumbres
Es muy importante subrayar que estas incertidumbres no tienen nada que ver con la capacidad del observador, esto es, la precisión o imprecisión inherente a todo instrumento de observación son características intrínsecas del micro-cosmos. Con estos principios como base, Heisenberg llegó a una conclusión un tanto filosófica en su contenido: en vista de la relación íntima entre el carácter estadístico de la teoría cuántica (interpretación de Born) y la imprecisión de todas las percepciones, puede sugerirse que detrás del universo estadístico existe un "mundo real" oculto (eine wirkliche Welt) gobernado por la causalidad. Esta tesis es, sin embargo, un tanto especulativa; la física tiene que confinarse, per se, a la descripción formal de las relaciones entre percepciones. Por otra parte las implicaciones y el contenido de las relaciones de incertidumbre dieron y han dado lugar a múltiples debates que hoy todavía generan polémicas acaloradas entre los estudiosos de esta materia.

Volvamos ahora a la pregunta original: cuando observamos una partícula ¿cómo detectamos su onda y recíprocamente? La respuesta fue dada por Bohr apoyándose en las relaciones de Heisenberg, proponiendo lo que hoy se conoce como el principio de complementariedad. Es imposible observar de manera simultánea el carácter corpuscular y el ondulatorio de una partícula. Si queremos tener el primero, e.g. la posición, con toda precisión, la incertidumbre en la velocidad o el ímpetu, esto es, en la naturaleza ondulatoria, tiene una imprecisión enorme y recíprocamente. Podemos diseñar dispositivos experimentales como rendijas de difracción o detectores, pero una vez diseñado el aparato para observar una u otra cualidad, los eventos siguen su curso de acuerdo con las leyes de la física cuántica. En un lenguaje kantiano un electrón, por ejemplo, es un objeto que se comporta como partícula cuando utilizamos un dispositivo diseñado sólo para observar esa cualidad (detector), o se comporta como una onda si utilizamos un dispositivo diseñado para ello (rejilla de difracción). Mas aún: de acuerdo con Max Born en uno u otro caso sólo podemos establecer la probabilidad de que el evento ocurra. 

La mecánica cuántica, como la mecánica estadística de Boltzmann-Gibbs, sólo permite predecir eventos naturales probabilísticamente aunque por razones muy diferentes y para sistemas microscópicos, en el primer caso, y macroscópicos, en el segundo. Esta visión de la mecánica cuántica es consistente con los resultados obtenidos en múltiples y variadas aplicaciones lo que, a juicio de muchos autores, la hace una teoría válida para describir los fenómenos para los cuales fue diseñada.

Hay, sin embargo, otros autores que jamás aceptaron esta interpretación, entre los cuales Einstein fue el principal adversario. Su punto fue que el "mundo real" no está gobernado por las leyes de la probabilidad, la teoría final que describa a todos los fenómenos del microcosmos debe ser determinista y por lo tanto la mecánica cuántica en su contenido arriba descrito es sólo una "teoría aproximada". En sus palabras afirmó que "debemos buscar un marco teórico más fundamental que permita la descripción de fenómenos independientemente de estas condiciones" (realidad objetiva). La mecánica cuántica es una manifestación incompleta de tal teoría. En 1935 publicó un trabajo con Podolsky y Rosen, hoy conocido como el trabajo epr, en el cual manifestaban que "sin afectar en forma alguna podemos predecir con certidumbre (modulo de la función de ondas igual a la unidad) el valor de una cantidad física, entonces existe un elemento de realidad física correspondiente a dicha cantidad". Como Bohr les respondió ese mismo año: epr no conduce a ningún cambio en la interpretación de la mecánica cuántica. No obstante, en los últimos setenta años muchos autores, unos no muy distinguidos, otros muy distinguidos, han insistido en promover teorías y hasta pseudoteorías buscando interpretaciones alternativas, no en forma muy exitosa por cierto. No insistiremos más en este punto.

Metáforas y ficciones

Es importante finalizar este ensayo con algunas reflexiones sobre la forma en que muchas ideas, pnncipios o leyes de las ciencias se uiilizan de forma inadecuada para representar, describir y, en ocasiones, explicar eventos que ocurren en la vida diaria y que están fuera del contexto donde son válidas. Esto genera metáforas y ficciones que no corresponden a la realidad y tergiversan el sentido real de los hechos. Hay que recordar que una ficción se estudia, un mito crece sin intención. Veamos primero un caso típico de una ciencia macroscópica, la termodinámica. En ella el concepto de entropía, elusivo y resbaladizo como aparenta, es muy preciso. Como la presión, el volumen, la temperatura, magnetización, etcétera, es otro atributo en esta lista que sirve para caracterizar el estado de un sistema. No obstante muy a menudo leemos en la literatura, y a veces de físicos eminentes, que la entropía es una medida del desorden. Esto no sólo es metafórico, sino falso. Para hablar de "desorden" primero hay que definir "orden" y esto, como cualquier lector lo adivinará, es subjetivo. ¿Qué es orden? Aparte de la connotación ética de la palabra, no es posible definir orden unívocamente. Luego hablar de desorden es vago, incierto. La entropía es una medida de la "organización" que un observador le impone a un sistema en términos de las restricciones y procesos bajo los cuales lo va a estudiar. Estudiar entropía para inferir "caos financiero", desórdenes sociales, características del universo, son meras ficciones.

 
 
 
 
 
 
 
 
   

Otro ejemplo típico se origina a raíz del descubrimiento de las relaciones de incertidumbre o principio de incertidumbre de Heisenberg. En algunos artículos de divulgación uno se encuentra con afirmaciones como la siguiente: las leyes de la mecánica cuántica determinan si el experimento elegido mostrará el carácter corpuscular u ondulatorio de un objeto. "La realidad no corresponde a algo observable". Como se dijo antes ¡ocurre todo lo contrario! También se lee: "He ahí la ciencia misma dice que no nos proporciona certidumbre; algo más lo debe hacer (algo sobrenatural, Dios...)". Esto es grotesco. Es ignorar por completo la diferencia en escalas entre fenómenos cuánticos y fenómenos macroscópicos. Las relaciones se aplican a electrones, átomos, moléculas, etcétera, pero no a un automóvil, a una pelota de tenis o a la Luna. La gran mayoría de la población de este planeta lleva una vida constituida por hechos, observaciones, vivencias, etcétera, donde para nada interviene el indeterminismo cuántico. Y los que utilizan a la física cuántica viven con él en perfecta armonía, así lo han mostrado más de setenta años de aplicaciones exitosas de esta rama de la física.

Las metáforas que provienen de conceptos científicos pueden ser útiles en el dominio donde es válido el concepto. Extrapolarlos sin límite puede ser dañino y peligroso, pues no reflejan para nada la realidad objetiva.• 

*Leopoldo García-Colín Scherer (ciudad de México, 1930) es profesor-investigador de la UAM Iztapalapa. Estudió las licenciaturas en física y química en la unam; se doctoró en física en la Universidad de Maryland. Se ha especializado en mecánica estadística. Es Profesor Distinguido de la UAM desde 1983. En 1988 recibió el Premio Nacional de Ciencias y Artes, en el área de Ciencias Físico-Matemáticas. Es miembro de El Colegio Nacional.