martes, 2 de septiembre de 2014

Escala Mínima de Longitud. Una Historia Minimalista del Universo.

 


La Mecánica de la Naturaleza o Teoría de los Estados Naturales (TUEN) predice una escala por debajo de la escala de Planck y la no existencia de una longitud mínima en absoluto. Hay un límite desde la perspectiva física de la Naturaleza más allá del cual no podemos ir, pero no existe ese límite en la perspectiva matemática. Por lo tanto, cuando sigamos profundizando en la estructura de la materia, nos encontraremos con una estructura matemática fundamental y primordial de la Naturaleza.
 
Escala Mínima de Longitud.
 
En el siglo quinto antes de Cristo, Demócrito postulaba la existencia de los objetos más pequeños a partir de los cuales toda la materia se construye y los llamó «átomos». En griego, el prefijo 'a' significa 'no' y la palabra 'tomos' 'cortar'. Por lo tanto, átomos o átomo significa "incortable" o indivisible. Según la teoría del atomismo de Demócrito, "Nada existe excepto átomos y espacio vacío, todo lo demás es opinión". Aunque variables en forma, los átomos postulados por Demócrito fueron los constituyentes hipotéticos fundamentales de la materia, los bloques de construcción elementales de todo lo que existe, las menores entidades posibles. Conjeturó que tendrían un tamaño finito, pero homogéneo y sin subestructura. Ellos fueron la primera apología del reduccionismo.
 
2500 años después sabemos que Demócrito estaba en lo cierto en que los sólidos y los líquidos están compuestos por entidades más pequeñas con propiedades universales que se llaman átomos en su honor. Pero estos átomos resultaron ser divisibles. Y se encontraron dentro de ellos los electrones y el núcleo atómico, el cual también se encontró que estaba compuesto de pequeñas partículas, los neutrones y protones. Mirando más de cerca aún, hemos encontrado que incluso neutrones y protones tienen una subestructura de quarks y gluones.
 

 

 De átomos a quarks.
 
En la actualidad, el modelo estándar de la física de partículas contiene tres generaciones de quarks, los fermiones y los campos de vectores asociados de los grupos "gauge" que son los constituyentes fundamentales de la materia que conocemos. Por supuesto, se podría interpretar que Demócrito llamó átomo a lo fundamental y primordial de la materia, pero por no confundir, tomaremos la nomenclatura átomo en el sentido físico actual.
 
Como una muñeca rusa, la realidad hasta ahora se nos ha revelado, una capa tras otra, que existen escalas cada vez más pequeñas. Esto plantea la pregunta: ¿Si seguimos mirando más de cerca la estructura de la materia, encontraremos posiblemente más capas? ¿O hay un límite fundamental a esta búsqueda, un límite más allá del cual no se puede ir?. Y si es así, ¿es un límite por principio, o es solo en la práctica?

 
 
De átomos a gluones.

 
Cualquier respuesta a esta pregunta tiene que incluir no sólo la estructura de la materia, también la propia estructura del espacio-tiempo en sí mismo, y por lo tanto se tiene que incluir la gravedad. Por un lado, esto se debe a la búsqueda iniciada por Demócrito de los componentes más fundamentales de la materia, y esto se traslada al espacio y el tiempo también. ¿Son el espacio y el tiempo fundamentales, o son simplemente buenas aproximaciones que emergen de otro concepto fundamental de veras, más allá de los límites que hemos probado hasta ahora?. ¿Está el espacio-tiempo constituido por algo más? ¿Hay "átomos" de espacio-tiempo?. Y en segundo lugar, experimentar en distancias muy pequeñas requiere grandes cantidades de energía confinadas en pequeños volúmenes, y cuando las densidades de energía aumentan, finalmente no puede obviarse la curvatura que parece producirse en el propio espacio-tiempo como postula la teoría de la relatividad general.


 
La Escala de Planck, el espacio-tiempo y las cuerdas.
 
En esta revisión vamos a estudiar esta vieja cuestión de si existe un límite fundamental para la resolución de estructuras más allá del cual no podemos descubrir nada más. Vamos a encontrar que casi todos los diferentes enfoques de esta cuestión conectan con la búsqueda de una teoría de la gravedad cuántica que nos lleva a descubrir que la posible resolución de las estructuras es finita o, más gráficamente, que la naturaleza física cuenta con una escala de longitud mínima - aunque veremos que la expresión "mínima escala de longitud" puede tener diferentes interpretaciones. Si bien no vamos a entrar en muchos detalles de las teorías candidatas que actualmente hay para la gravedad cuántica, hablaremos de lo que algunas de ellas tienen que decir sobre esta cuestión.
 
Hay algunos métodos que investigan las consecuencias de una escala de longitud mínima en la mecánica cuántica y la teoría cuántica de campos, modelos que han florecido en una de las áreas más y mejor desarrolladas de la fenomenología de la gravedad cuántica. A continuación, se utiliza la convención de la unidad c = ħ = 1, de modo que la longitud de Planck lpi es la inversa de la mpi o masa de Planck = 1 / lpi, y la constante de Newton G = (lpi) ² = 1 / (mpi) ² . La firma de la métrica es (1, -1, -1, -1).
 
 

 
 Escalas comparadas.
 
 
Una Historia Minimalista del Universo.
 
La relatividad especial y la mecánica cuántica se caracterizan por dos constantes universales, la velocidad de la luz, c, y constante de Planck, ħ. Sin embargo, a partir de estas constantes solas no se puede construir  una constante de la dimensión longitud o masa. Aunque, si tuviéramos una, podrían ser convertidas entre sí mediante el uso de ħ y c. Pero en 1899, Max Planck señaló que añadiendo la constante de Newton G a las constantes universales c y ħ permite construir las unidades de masa, longitud y tiempo con los siguientes valores respectivamente:
 
 
tpi ≈ 10^-43 s
lpi ≈ 10^-33 cm
mpi ≈ 1,2 × 10^19 GeV.

                         
Hoy en día estos son conocidos como el tiempo de Planck, longitud de Planck y la masa de Planck, respectivamente. Como se verá más adelante, marcan la escala en que los efectos cuánticos de la interacción gravitatoria se espera que lleguen a ser importantes. Pero, de vuelta a la época de Planck la principal relevancia fue su universalidad, al estar construidas enteramente de constantes fundamentales. El sistema se define haciendo que estas cinco constantes físicas universales tomen el valor 1 cuando se expresen ecuaciones y cálculos en dicho sistema:


 
ConstanteSímboloUnidades
velocidad de la luz en el vacío

c

L / T
Constante de gravitación

G

L3/T2M


Constante reducida de Planck




 
 

 ħ = h/2π

donde h es la constante de Planck


ML2/T
Constante de fuerza de Coulomb

 1/4πεₒ

donde εₒ es la permitividad en el vacío
M L3/ Q2 T2
Constante de Boltzmann

k

M L2/T2K

 
La idea de una longitud mínima fue precedida por la del "chronon", la unidad más pequeña de tiempo, propuesta por Robert Lévi en 1927 en sus "Hyphothèse de l'atome De temps" (hipótesis del átomo de tiempos) que desarrolló Pokrowski en los años siguientes. Pero, que pudiese haber límites a la divisibilidad del espacio y el tiempo se mantuvo como una especulación descabellada al margen de una comunidad que empujaba rápidamente hacia adelante el desarrollo de la relatividad general y la mecánica cuántica. No fue hasta que se unieron la mecánica cuántica y la relatividad especial en el marco de la teoría cuántica de campos cuando la posible existencia de una escala de longitud mínima se elevó a la conciencia de la comunidad física.
 
Con el advenimiento de la teoría cuántica de campos en la década de 1930, se creía que una longitud fundamental era necesaria para remediar las divergencias problemáticas en esta teoría. La regularización más utilizada fue un corte o utilizar alguna otra cantidad dimensional para tratar con integrales finitas. Parecía natural pensar que este pragmático corte tendría una significancia fundamental, una interpretación física que sin embargo, inevitablemente, causa problemas con la invariancia de Lorentz, ya que el corte no sería independiente del marco de referencia.
 
Heisenberg fue uno de los primeros en considerar fundamentalmente discreto al espacio-tiempo, lo que llevaría a este corte, establecido en sus cartas a Bohr y Pauli. La idea de una longitud fundamental finita o una frecuencia máxima fue estudiada por muchos en esos años, incluyendo Flint, March, Möglich y Goudsmit, sólo por mencionar algunos. Todos ellos tenían en común la consideración de que la longitud fundamental debía estar en el entorno de la física subatómica, del orden del femtómetro (10^-15 m).


 
Espuma cuántica.
 
La única excepción fue un joven ruso, Matvei Bronstein. Hoy en día reconocido como el primero en comprender el problema de la cuantificación de la gravedad, Bronstein estaba décadas por delante de su tiempo. Ya en 1936, argumentó que la gravedad es de una manera fundamental y diferente de la electrodinámica:
 
"La gravedad no permite una arbitraria alta concentración de carga en una pequeña región del espacio-tiempo, ya que la "carga" de la gravedad es energía y, si se está concentrando demasiada, lo que hará es colapsar en un agujero negro."
 
Utilizando la aproximación del campo débil gravitatorio, concluyó que ésta conduce a un límite inevitable de la precisión en las cuales se puede medir la fuerza del campo gravitatorio (en términos de los símbolos de Christoffel). En su artículo 1936 "Quantentheorie schwacher Gravitationsfelder" (La teoría cuántica de campos gravitatorios débiles), Bronstein escribió:
 
"El radio gravitacional del cuerpo de prueba (GρV / c²) utilizado para las mediciones debería ser, de ningún modo, más grande que sus dimensiones lineales (V⅓); de éste se obtiene una cota superior para su densidad (ρ≤ c² / GV⅔). Por lo tanto, las posibilidades de mediciones en esta región son aún más restringidas que lo que se concluye a partir de las relaciones de conmutación de la mecánica cuántica. Sin un cambio profundo de las nociones clásicas, parece casi imposible extender la teoría cuántica de la gravitación a esta región".
 
Pocas personas han tomado nota del argumento de Bronstein y, por desgracia, la historia de este prometedor joven físico terminó en una cárcel de Leningrado en 1938 febrero, donde fue ejecutado a la edad de sólo ¡31 años! . Un genio que se perdió para la posteridad de la física teórica en los turbios preludios de la Segunda Guerra Mundial.


Matvei Bronstein. 
 
Heisenberg continuó por su parte en su intento de dar sentido a la noción de una longitud mínima fundamental de dimensiones nucleares. En 1938, Heisenberg escribió "Über die in der Theorie der Elementarteilchen auftretende universelle Länge" (Sobre la longitud universal, apareciendo en la teoría de las partículas elementales), en el que sostenía que esta longitud fundamental, que denota por r0, debería aparecer en algún lugar no muy lejos más allá del radio clásico del electrón (del orden de 100 fm).
 
Esta idea parece curiosa hoy, y debe ser puesta en perspectiva. Heisenberg estaba muy preocupado sobre la no renormalizabilidad de la teoría del decaimiento beta (β-decay) de Fermi. Se había demostrado previamente que la aplicación de la teoría de Fermi para el centro de masa para energías de algunos cientos de GeV llevarían a una "explosión", por lo que se refirió a los eventos de muy alta multiplicidad. Heisenberg argumentó que este explicaría las lluvias de rayos cósmicos observados y su gran número de partículas secundarias, de las cuales sabemos hoy que son creados por cascadas (una posibilidad que se discutió ya en la época de Heisenberg, pero no acordadas). También, sabemos hoy que lo que en realidad Heisenberg descubrió es que la teoría de Fermi tiene una rotura para altas energías, y el acoplamiento de cuatro fermiones debe sustituirse por el intercambio de un bosón "gauge" en la interacción electrodébil. Pero, en la década de los años 30 ni la fuerza fuerte ni la fuerza electrodébil se conocían. Entonces, Heisenberg conectó el problema de regularización con la rotura de la expansión de la perturbación de la teoría de Fermi, y argumentó que la presencia de las presuntas explosiones prohibiría la resolución de las estructuras más finas:
 
"Si realmente existen las explosiones y representan los procesos característicos de la constante r0, entonces tal vez es una conveniencia en principio, pero todavía no está clara la comprensión de las oscuras propiedades relacionadas con la constante r0. Éstas sin duda deben expresar las dificultades de las mediciones con una precisión mejor que r0 ... Las explosiones tendrían el efecto ... que las mediciones de las posiciones no son posibles con una precisión mejor que r0."

 

Diagrama de Feynman para el decaimiento β negativo.
 
 

En retrospectiva, sabemos que Heisenberg estaba en lo correcto con el argumento de que la teoría de partículas conocidas en la década de 1930 era incompleta. Faltaba la interacción fuerte y la teoría de Fermi era de hecho no renormalizable, pero no fundamental. Hoy también sabemos que el Modelo Estándar de la física de partículas es renormalizable y conocemos las técnicas para hacer frente a las integrales divergentes que no requieren puntos de corte, tales como la regularización dimensional. Pero, al carecer de ese conocimiento, es comprensible que Heisenberg argumentó que, teniendo en cuenta la gravedad, esto era irrelevante para la existencia de una longitud fundamental:
 
"El hecho de que [la longitud de Planck] es significativamente menor que r0 hace que sea válida para seguir dejando a un lado las propiedades oscuras de la descripción de la naturaleza debido a la gravedad, ya que - al menos en la física atómica - son totalmente insignificantes en relación con las más oscuras propiedades que se se devienen de la constante universal r0. Por esta razón, parece difícilmente posible integrar los fenómenos eléctricos y gravitacionales dentro del resto de la física hasta que los problemas relacionados con la longitud r0 se resuelvan".
 
Heisenberg aparentemente puso grandes esperanzas en la noción de una longitud fundamental para avanzar en la comprensión de la materia elemental. En 1939 expresó su creencia de que una teoría cuántica con una escala de longitud mínima sería capaz de tener en cuenta el espectro de masa discreta de las partículas elementales (de las entonces conocidas). Sin embargo, la teoría de la electrodinámica cuántica estaba alcanzando la madurez, por lo que se explicaron satisfactoriamente las "explosiones" y, sin ser obstaculizado por la aparición de alguna resolución fundamental finita, los experimentos probaron la existencia de escalas cada vez más pequeñas.
 
Las divergencias en la teoría cuántica de campos se entendieron mejor y los enfoques discretos del espacio-tiempo perdieron atractivo debido a sus problemas con la invariancia de Lorentz. En una carta de 1947 a Heisenberg, Pauli se refirió a la idea de una longitud más pequeña, que Heisenberg sostenía, con reservas, concluyendo:
 
"Llevado al extremo, me temo que su longitud "universal" resultó ser un mero producto de la imaginación".
 
En 1930, en una carta a su alumno Rudolf Peierls, Heisenberg mencionó que él estaba tratando de dar sentido a una longitud mínima al permitir que los operadores de posición sean no-conmutables. Expresó su esperanza de que Peierls preguntara a Pauli cómo proceder con esta idea:
 
"Hasta ahora no he sido capaz de dar sentido matemático a tales relaciones de conmutación ... ¿Usted o Pauli tienen algo que decir sobre el significado matemático de tales relaciones de conmutación?".
 
Pero tuvieron que pasar 17 años hasta que Snyder, en 1947, diera sentido matemático a la idea de Heisenberg. Snyder, que presentió que el uso del corte para el momeno espacial era "un procediemiento arbitrario indeseado", elaboró una modificación de las relaciones de conmutación canónicas de posición y operadores de momento. De esta manera, el espacio-tiempo se convirtió en Lorentz-covariante no conmutativo, pero la modificación de las relaciones de conmutación aumenta la incertidumbre de Heisenberg, de tal manera que se introduce en las resoluciones más pequeñas de las estructuras posibles (una consecuencia Snyder no mencionó explícitamente en su artículo). Aunque el enfoque de Snyder fue criticado por las dificultades de inclusión de traslaciones, recibió mucha atención al principio por mostrar que una escala de longitud mínima no necesariamante debe estar en conflicto con la invariancia de Lorentz.
 
En 1960, Peres y Rosen estudiaron las incertidumbres en la medición de los valores medios de los símbolos de Christoffel debido a la imposibilidad de concentrar una masa en una región más pequeña que su Radio de Schwarzschild, y se llegó a la misma conclusión que Bronstein ya tenía, en 1936:
 
"La existencia de estas incertidumbres cuánticas en el campo gravitacional es un fuerte argumento a favor de la necesidad de la cuantificación de ella. Entonces, es muy probable que una teoría cuántica de la gravitación generalizce estas relaciones de incertidumbre a todos los otros símbolos de Christoffel".

 

 
Radio de Schwarzschild
 
Mientras ellos consideraban las limitaciones para medir el propio campo gravitatorio, no estudiaron las limitaciones de estas incertidumbres inducen en la capacidad para medir distancias en general.
No fue sino hasta 1964, que Mead señaló el peculiar papel que la gravedad juega en nuestros intentos para poner a prueba la física en las distancias cortas. Mostró, en una serie de experimentos mentales que esta influencia tiene el efecto de amplificación de la incertidumbre de medida de Heisenberg, por lo que es imposible medir distancias con una precisión mejor que la longitud de Planck. Y, ya que la gravedad se acopla universalmente, aunque por lo general insignificantemente comparado con las otras fuerzas, sin embargo tiene una influencia ineludible en todos nuestros experimentos y decisiva acerca de la longitud mínima fundamental en la perspectiva física. El trabajo de Mead no alcanzó originalmente mucha atención. Décadas más tarde, presentó su compliación acerca de "la propuesta de Planck sobre que la masa, longitud y tiempo de Planck deben formar un sistema fundamental de unidades... todavía considerado herético bien entrada la década de 1960 ", y además el argumento sobre la relevancia fundamental de la longitud de Planck encontró una fuerte resistencia:
 
"Por aquellas fechas, había leído muchos informes cotejados por pares sobre mis artículos y discutí el asunto con cada físico teórico que estaba dispuesto a escuchar, pero nadie con quien me puse en contacto reconoció la relación con la propuesta de Planck, y pocos tomaron en serio la idea de [la longitud de Planck] como posible longitud fundamental. El punto de vista era casi unánime, no sólo había fracasado en probar mi resultado, sino que además la longitud de Planck nunca podría desempeñar un papel fundamental en la física. Una minoría sostuvo que no podía haber longitud fundamental en absoluto, pero la mayoría estaba convencida de que una [diferente] Longitud fundamental..., del orden de la longitud de onda Compton del protón, era la ola del futuro. Además, las personas que contacté parecían considerar esta longitud mucho mayor que la fundamental  establecida de facto, sin ninguna especulación posible, a pesar de la falta de evidencia real para considerar una longitud fundamental mayor".
 
Pero entonces, a mediados de la década de 1970, después del cálculo de Hawking sobre las propiedades termodinámicas de un agujero negro, introdujo de nuevo el "problema transplanckiano". Debido al corrimiento al azul, en principio infinito, de los fotones que se acercan al horizonte del agujero negro, los modos con energías superiores a la escala de Planck debían tenerse en cuenta para calcular la tasa de emisión. En este sentido, le siguieron un gran número de físicos, los cuales poseen una significativa y avanzada comprensión de la física del agujero negro y la escala de Planck, demasiados para ser nombrados aquí. Sin embargo, el destacado papel desempeñado por John Wheeler, cuyas aportaciones, aunque no directamente en el tema de una longitud mínima, sin embargo conectó acertadamente la física de los agujeros negros con la espuma espacio-temporal y el límite de Planck, y por ello inspiró gran parte de lo que siguió.

 

 
 

 Radiación de Hawking
 
Por ejemplo, Unruh sugirió en 1995 que se utilice una relación de dispersión modificada para hacer frente a la dificultad de modos transplanckianos, de forma que a las longitudes de onda más pequeñas posibles cuidan de las contribuciones más allá de la escala de Planck. Existe un problema similar en la cosmología inflacionaria en el que las frecuencias pequeñas incrementan la frecuencia hasta que finalmente se supera la Escala de Planck, y en ese momento ya no sabemos como dar  sentido a la relatividad general. Por lo tanto, este número de modos transplanckianos en cosmología planteó otra razón para reconsiderar la posibilidad de una longitud mínima o una frecuencia máxima, pero esta vez la frecuencia máxima fue en la escala de Planck en lugar de a escala nuclear. Así, se propuso que este problema también podría ser remediado mediante la aplicación de un "principio de incertidumbre de longitud mínima" dentro de la cosmología inflacionaria.
 
Casi al mismo tiempo, Majid y Ruegg propusieron una modificación de los conmutadores de coordenadas del espacio-tiempo, similar a la de Snyder, siguiendo una generalización del álgebra k-Poincaré para un álgebra de Hopf, que se hizo conocido como k-Poincaré desde ese momento. Además, Kempf desarrolló la base matemática de la mecánica cuántica que tuvieron en cuenta una escala de longitud mínima y se aventuraron hacia la teoría cuántica de campos. Hay ahora muchas variantes de modelos que emplean modificaciones de las relaciones de conmutación canónicas con el fin de dar cabida a una escala de longitud mínima, no todos los cuales hacen uso del marco completo de la k-Poincaré. Algunos de estos enfoques se desarrolaron para dar lugar a una modificación de la relación de dispersión, aunque la interpretación y relevancia física así como las consecuencias fenomenológicas de esta relación aún están en debate.
 
 
Fibración de Hopf

 
En paralelo a esto, los avances en la teoría de cuerdas revelaron la imposibilidad de resolver de manera arbitraria pequeñas estructuras con un objeto de extensión finita. Ya se había demostrado en los últimos años de la década de los 80 esa dispersión de las cuerdas en el régimen de super-Planck, resultando ese principio de incertidumbre generalizado, previniendo una localización más allá de la escala de cuerda. En 1996, John Schwarz ofreció una charla en el SLAC sobre el principio de incertidumbre generalizada que se deriva de la teoría de cuerdas, y de esta manera inspiraron el trabajo de Adler y Santiago en 1999, el cual reproduce casi exactamente el argumento anterior de Mead, al parecer sin darse cuenta de la obra de Mead. Esta idea fue refinada más tarde, cuando se hizo entender que la teoría de cuerdas no sólo contiene secuencias, sino también objetos dimensionales superiores, conocidos como branas.
 

 
 
 Formación de Cuerdas y Branas en la QCD por la fuerza fuerte entre quarks-gluón confinados.
 
En los años siguientes, la generalización del principio de incertidumbre y la mecánica cuántica con la Longitud de Planck, como una longitud mínima, recibieron una atención cada vez mayor como remedios potenciales para el problema transplanckiano, un UV-regulador natural, y como posibles manifestaciones de una propiedad fundamental del espacio-tiempo cuántico. También, a finales de 1990 se señaló que es compatible con la teoría de cuerdas tener más dimensiones y enrolladas que podrían disminuir efectivamente la Escala de Planck en el rango de TeV. Así, la escala de la longitud fundamental también se trasladó al alcance de la potencia de los colisionadores de última generación, lo que resultó en un frenesí de actividad hasta la fecha.
 
Hoy en día, la forma de resolver las aparentes discrepancias entre las teorías cuánticas de campos del Modelo Estándar y la relatividad general es una de las grandes cuestiones abiertas en la física teórica. No es que no se pueda cuantizar la gravedad, sino que el intento de hacerlo conduce a una teoría perturbativa no-renormalizable y por lo tanto fundamentalmente absurda. La razón básica es que el acoplamiento de la constante de la gravedad, la constante de Newton, es dimensional. Esto conduce a la necesidad de introducir un número infinito de contra-términos, haciendo que la teoría sea incapaz de predecir nada.
 
 

 
 Modelo Estándar
 
Recientemente, una nueva teoría denomidada "Agravedad" o gravedad adimensional, propone el siguiente principio general: "la Naturaleza no posee ninguna escala", el cual conduce a un teoría renormalizable porque los gravitones tienen un término cinético con 4 derivadas y dos constantes de acoplamiento f0 y f2. Por lo tanto es una teoría predictiva de la gravedad cuántica, donde todas las escalas se generan de manera dinámica, y donde una escala débil pequeña coexiste con la Escala de Planck, deduciendo la inflación cósmica como un fenómeno natural. El precio a pagar es un estado fantasma (ghost) como estado de anti-gravitones con energía cinética positiva, pero norma negativa, lo cual implica amplitudes de probabilidad negativas, las cuales son imposibles en una primera interpretación, pero que puede sea errónea, tal y como sucedió en principio con la antimateria. 
 
Esta teoría sin escala y adimensional de la gravedad, la cual no contienen ningún parámetreo dimensional consecuentemente, se ve reforzada por ciertas observaciones que indican, vagamente, que la Naturaleza "prefiere" términos adinesionales. Así, Alberto Salvio y Alessandro Strumia, los autores de esta novedosa y ambiciosa teoría, postulan que la Naturaleza no posee ninguna esacala de masa o longitud, y por lo tanto solo tienen contienen interacciones "renormalizables", es decir, las interacciones con acoplamientos adimensionales, e incluso pudiéndose ajustar la constante cosmológica a cero. Para un orden de magnitud suficientemente pequeño de los valores de f0 y f2 ~ 10-8, entonces los lazos (loops) gravitacionales generarían la escala débil, mucho menor que la Escala de Planck, siendo natural en ese contexto la escala débil observada.
 
 
Ampilituedro artístico y Agravedad
 
Pero, lo mismo es cierto para la teoría de Fermi por la que Heisenberg estaba tan preocupado, y por eso argumentó una resolución finita donde se producía una rotura en la teoría, equivocadamente, ya que él estaba tratando de llevar una teoría efectiva más allá de sus límites. Así que tenemos que preguntarnos entonces si podríamos estar cometiendo el mismo error que Heisenberg, por lo que falsamente interpretamos el fracaso de la relatividad general para poder ampliar más allá de la escala de Planck como una ocurrencia para una resolución fundamental finita de las estructuras, en lugar de sólo el límite más allá del cual tenemos que buscar una nueva teoría que nos permitiera, quizá, ¿resolver distancias más pequeñas todavía?. Aquí es donde la Mecánica de la Naturaleza o Teoría de los Estados Naturales (TUEN) ofrece una solución elegante volviendo al reduccionismo clásico original postulado por Demócrito, y por supuesto la adimensionalidad es una premisa fundamental de esta teoría. En consecuencia, se postula una Naturaleza libre de dimensiones, las cuales no son más que un invento humano para medir, pero que no tienen sentido físico fundamental alguno en la realidad natural objetiva, universal e independiente del observador.
 
Si fuera sólo la extensión de la gravedad clásica distribuida en muchos experimentos mentales que nos mantenían en la creencia de que la longitud de Planck es de importancia fundamental, entonces la lección histórica anterior nos advierte que podría ser el camino equivocado. Sin embargo, la situación actual es diferente a la que se enfrentó Heisenberg. En lugar de empujar una teoría cuántica más allá de sus límites, estamos empujando una teoría clásica y la conclusión de que su comportamiento de corta distancia es problemático, la cual se espera resolver con la cuantización de la gravedad. Varios intentos de una UV-completa de la gravedad, sugieren que el papel de la longitud de Planck como una longitud mínima nos lleva a un régimen cuántico como un regulador dimensional, aunque de maneras muy diferentes, y alimentan nuestras esperanzas de que estamos trabajando en develar la última y definitiva capa de la muñeca rusa.
 
Finalmente, los experimentos mentales han jugado un papel importante en la historia de la física como la forma "pobre" del físico teórico para probar los límites de una teoría. Esta pobreza puede ser una real falta de equipo experimental, o podría ser una imposibilidad práctica. Afortunadamente, los avances tecnológicos a veces convierten experimentos mentales en experimentos reales, como fue el caso de la paradoja de Einstein, Podolsky y Rosen en 1935. Pero, incluso si un experimento no es realizable de forma experimental en un futuro próximo, los experimentos mentales sirven para dos propósitos importantes. En primer lugar, el permitir que el pensador pruebe los rangos de espacio de parámetros que son inaccesibles para experimentar, que pueden revelar inconsistencias o paradojas y las puertas abiertas de esta manera a una mejora en los fundamentos de la teoría. La completa evaporación de un agujero negro y la cuestión de la pérdida de información en ese proceso es un buen ejemplo de esto. En segundo lugar, los experimentos mentales vinculan la teoría a la realidad física por la necesidad de investigar en detalle lo que constituye una entidad mensurable.
 
En conclusión, la Naturaleza nos muestra su aspecto inconmensurable en el minimalismo extremo, reforzando nuestra cada vez más poderosa sospecha de que una estructura fundamental y primordial es su "cimiento sin cemento", fundamento más allá de toda escala, medición y medida.

1 comentario:

  1. "El universo es una red entretejida de relaciones entre el estado básico del vacío y los cuerpos que habitan el universo U4, donde la materia oscura puede ser reemplazada por la distribución de Geones y Gravitinos que inundan le totalidad del universo...Campo Geónico que reacciona frente a la acción de la presencia de los cuerpos y naturalmente definen la curvatura".

    ResponderEliminar