domingo, 1 de julio de 2012

LA GRAVEDAD DE NEWTON, LA RELATIVIDAD DE EINSTEIN, LA CUÁNTICA DE PLANCK, LAS SUPERCUERDAS DE VENEZIANO, SCHWARTZ Y SCHERK Y UN LARGO CAMINO QUE RECIÉN COMIENZA

Durante miles de años la intuición general relativa a la naturaleza del espacio y del tiempo que el ser humano fue construyendo mediante experiencias cotidianas, basadas exclusivamente en aquello que podía experimentar y observar, había entregado la noción de un universo que existió desde siempre y que jamás cambió ni cambiaría. 
Ni siquiera pensadores radicales se atrevían a abandonar estas arraigadas ideas, y cuando se enfrentaban a anomalías que pudieran cuestionar esta visión, se las ignoraba o justificaba para así poder continuar gozando de la comodidad de un universo estático, aún cuando los científicos eran conscientes de que sus teorías eran sólo una descripción apenas aproximada del real funcionamiento de las leyes universales. 
NEWTON 
Por eso, no extrañó que una de las mentes más brillantes del siglo 18, Isaac Newton, nos entregara la ley de gravitación universal y los enunciados fundamentales sobre la naturaleza de la óptica y de la luz dentro de una visión fría y mecánica del espacio, el tiempo y la gravedad, en la cual el universo era un mecanismo de relojería cuyos componentes individuales se pusieron en movimiento en algún momento del pasado y se sometían obedientemente a un destino ineludible y determinado de manera única ( por ejemplo, considerando la situación típica de un planeta como la Tierra, que gira alrededor de una estrella, enunciaba que el Sol mantenía en órbita a la Tierra asiéndola con un “ronzal” que se extendía a través de vastas distancias en el espacio, y que, de modo similar, la Tierra alcanzaba al Sol ). 
Pese a su educación profundamente religiosa que a la vez le confirmaba sus postulados fundamentales, el científico advirtió los peligros, baches y paradojas de sus enunciados, llegando a reconocer públicamente que para él era un completo misterio el mecanismo por el cual se transmitía la gravedad. Pero qué vá, sus enunciados eran matemática y físicamente comprobables, bastaban para predecir y explicar fenómenos físicos desde objetos que caían desde torres inclinadas hasta planetas que recorrían sus órbitas solares, y el arrogante período de confianza absoluta en la razón que se inauguró con él deseaba intensamente permanecer para siempre entre las comodidades de las certezas.
EINSTEIN
 Y así fue hasta la aparición de Albert Einstein, que en 1.915 enunció su Teoría de la Relatividad general, y con ella derrumbó para siempre las tan sospechosas certezas de la física clásica, reformulando la gravedad, el tiempo y el espacio. Hasta Newton, todo estaba dentro de las previsiones medibles, y de lo que podía sentirse en los huesos, pero a partir de Einstein, fue como si nuestros antepasados del siglo 19 recibieran por casualidad una supercomputadora moderna sin las instrucciones operativas. 
Los indicios de poder de la máquina se les habrían puesto de manifiesto inmediatamente, pero se habría requerido un prolongado y sobrehumano esfuerzo de inventiva directa e innumerables fallos de prueba y error para ganar un dominio verdadero sobre ella, y aún haciéndolo, se habría quedado en el camino la comprensión de los fundamentos que subyacían a su poderío. 
Lo que había parecido separado y absoluto era ahora entretejido y relativo, la energía y la masa eran convertibles y la gravedad ya no era una fuerza de atracción sinó la consecuencia del baile cósmico incansable y meticuloso de billones de billones de habitantes de las galaxias, todos influenciando en la física de cada quien. 
Y así comenzó la pérdida de la inocencia clásica y se inició el camino profundo del conocimiento del universo, a través de la relatividad general primero, la mecánica cuántica después, y la teoría de las Supercuerdas en última instancia, logros que deben considerarse fundamentales considerando que provienen de unos seres confinados en un pequeño planeta que gira en torno a una estrella de lo más común en los lejanos confines de una galaxia igual a cualquier otra en cuyo contexto reciben además la reprobación de una gran cantidad de sus semejantes. 
Einstein introdujo, para explicar la gravedad, una vinculación de ésta con la aceleración, y la imposibilidad de distinguir una de la otra en campos con magnitudes ajustadas adecuadamente ( principio de equivalencia ), lo cual lo llevó a establecer un segundo vínculo: la curvatura del espacio y el tiempo, es decir el alabeo, que genera una distorsión que no existe en la geometría trazada sobre superficies planas que llevó a los griegos a enunciar que en cualquier círculo el cociente entre la longitud de su circunferencia y su radio es siempre exactamente dos veces el número Pi. 
En un espacio alabeado, al igual que ocurre con los espejos curvos o alabeados de las ferias, se distorsionan las relaciones espaciales normales y en consecuencia si se dibuja un círculo en una superficie curva, el cociente de su circunferencia dividida entre su radio NO SERÁ, en general, dos veces el número Pi ( un círculo dibujado sobre una esfera tendrá una circunferencia menor a uno idéntico que esté dibujado sobre una hoja de papel ). 
Demostró entonces que en todos los casos un movimiento acelerado produce el alabeo del espacio, y un alabeo análogo en el tiempo ( unión articulada en su Ley de Relatividad Especial ), es decir: lo que es verdad en el espacio, lo es también en el tiempo. Antes de Einstein, se consideraba que espacio y tiempo proporcionaban un espacio inerte constituyendo un simple marco y que por lo tanto, nada le sucedía a ese continuo ante la presencia de un objeto que posee masa, como la Tierra. 
La Relatividad y sus vínculos entre la gravedad, el movimiento acelerado y el espacio curvo, llevó, por el contrario, al razonamiento de que un cuerpo con masa ejerce una fuerza gravitatoria sobre otros objetos y es causa de que la estructura del espacio que lo rodea se alabee, distorsionándose por dicha razón. Esto sacó al espacio ( y por ende, al tiempo ) de su función pasiva y lo convirtió en algo que responde activamente a los objetos que están en su entorno, determinando a su vez el condicionamiento de los movimientos de dichos objetos. 
Todo esto llevó a Einstein a las entrañas mismas de la gravedad, a la cual enunció como la fuerza consecuente del alabeo del espacio y el tiempo, a diferencia de Newton, que no había especificado el mecanismo por el cual se transmite la gravedad. 
Para Einstein, el propio alabeo del espacio ES la gravedad, que quedó así incorporada a la estructura básica del universo, a la vez que calculó que las perturbaciones gravitatorias viajan a la velocidad de la luz, es decir que jamás se le adelantan. 
Como derivación, estableció que a mayor masa de un objeto, mayor es la influencia gravitatoria que ejerce sobre otros cuerpos y que la distorsión disminuye a medida que nos alejamos del cuerpo ( lo cual también podemos comprobar en un espejo alabeado ). 
Por ejemplo, la Tierra se mantiene en órbita alrededor del Sol porque recorre una trayectoria de resistencia mínima en la estructura distorsionada del espacio que rodea al Sol. 
En los experimentos realizados con nuestro nivel actual de tecnología no se han hallado desviaciones con respecto a las predicciones de Einstein y su divorcio con las leyes de Newton son, a escala humana, de pequeñas proporciones, lo cual no incide dramáticamente en sus resultados: si pateamos una pelota, tanto la gravedad de Newton como la de Einstein la harán aterrizar en el “mismo” lugar, aunque en realidad serán diferentes sitios, pero con tan pequeñas diferencias ( las de Einstein serán más exactas ) que estarán más allá de la capacidad humana de detectarlas experimentalmente. 
La curvatura de la luz de Einstein podía en cambio evidenciarse durante un eclipse solar, en el cual la luna bloquea temporalmente la luz del sol y las estrellas distantes se vuelven visibles reflejando en la trayectoria de sus luces la distorsión provocada por el alabeo espacio-temporal. 
Durante un eclipse solar acontecido en 29 de mayo de 1919, Sir Arthur Eddington, conocido astrónomo y secretario de la Royal Astronomical Society en Inglaterra organizó una expedición a la isla de Santo Tomé situada frente a la costa occidental africana para comprobar las predicciones de Einstein y tras un meticuloso análisis de las fotografías tomadas y comparándolas con otras obtenidas por un segundo equipo británico parapetado en Sobral, Brasil, anunció que la predicción quedaba confirmada, y la noticia sobrepasó a la comunidad científica mediatizando a Einstein mundialmente, con titulares de periódicos que lo sindicaban como un revolucionario que redefinía el universo y desbarataba los conceptos newtonianos. 
Esto originó otros trabajos fundamentales, como el del alemán Karl Schwarzschild, quien reveló como asombrosa consecuencia de la relatividad general, que si la masa de una estrella está concentrada en una región esférica lo suficientemente pequeña a punto de que su masa dividida por su radio supere un valor crítico determinado, el alabeo resultante será tan pronunciado que ningún objeto, incluída la luz, que se acerque demasiado podrá escapar de su atracción gravitatoria. 
Así nacieron los agujeros negros, que por ahora permanecen sólo en el campo teórico. También dio lugar a la - para nosotros – delirante teoría del Big Bang, definida como una explosión cósmica que lanza al exterior los contenidos materiales del universo, lo cual es absolutamente ridículo porque toda explosión necesita un espacio alrededor y aquí se pretende hablar de un punto (¿?) que representa el total del universo, nó algo que está dentro del universo ( si estamos hablando de los inicios, resulta que no hay espacio afuera para que nada explote y menos como para que pueda transportar materia y energía ). 
MECÁNICA CUÁNTICA 
La mecánica cuántica, un marco conceptual que sirve para comprender las propiedades microscópicas del universo revelando asombrosas propiedades a escalas atómicas o subatómicas con extrañas implicaciones para el espacio y el tiempo, fue la siguiente bola gigantesca luego de la Relatividad, y una vez más entró en conflicto con ésta como ocurriera con la gravedad de Newton. 
El nacimiento de la cuántica tuvo lugar cuando a comienzos del siglo 20 unos físicos, al intentar calcular la energía total transportada por la radiación electromagnética en el interior de un horno a una temperatura determinada, y utilizando procedimientos de cálculo incuestionables, llegaron a un resultado ridículo: para cualquier temperatura seleccionada, la energía total en el interior del horno era infinita. 
Utilizando la termodinámica del siglo 19, los físicos determinaron cuánta energía suministrarían las paredes calientes del horno a las ondas electromagnéticas de cada una de todas las longitudes de onda posible, y la respuesta fue que cada una de las ondas posibles, independientemente de su longitud, llevaría la misma cantidad de energía con la cantidad exacta que determina la temperatura del horno, o sea que todas las pautas posibles de ondas que producía el horno estaban en un pié de igualdad absoluta en lo que respecta a la cantidad de energía que contenían. 
Esto implicó que dentro de la enorme variedad de pautas concebibles para las ondas que se producían en el horno, había todavía un número infinito de otras ondas que también eran posibles, y como todas las ondas llevaban la misma cantidad de energía, un número infinito de pautas se traducía en un número infinito de energía. 
MAX PLANCK 
En 1900, el físico alemán Max Planck encontró la forma de resolver este rompecabezas intuyendo que la energía que llevaba una onda electromagnética dentro del horno se presentaba en paquetes: la cantidad de energía podía ser varias veces la unidad fundamental energética, pero siempre un número entero de veces esa unidad, sin fracciones. 
Estableció que el paquete mínimo de energía de una onda es proporcional a su frecuencia: una longitud corta implica una energía mayor y viceversa ( como la fuerza de las olas del mar, que cuanto más cortas son más fuerza transportan ). 
PLANCK Y EINSTEIN
Con esta innovación termodinámica, cada paquete energético aportaba la energía que se le requería, pero si su energía mínima superaba la cantidad requerida, no aportaba nada y se quedaba inactiva. 
Así, sólo un número finito de ondas contribuía a sumar la energía total del horno, resultando una cantidad finita de energía total. 
Su planteamiento o parámetro de proporcionalidad, entre la frecuencia de una onda y el paquete mínimo de energía que podía tener, coincidió espectacularmente con las mediciones experimentales para predecir exactamente la energía medida en un horno a cualquier temperatura previamente seleccionada y fue llamada “la constante de Planck” ( h-barra = mil cuatrillonésimas en las unidades habituales ). 
Planck determinó también que los saltos de energía crecen a medida que las frecuencias de las ondas se vuelven más altas y sus longitudes cada vez más cortas, y este fue el ingrediente crucial que resolvió la paradoja de la energía infinita. 
El hecho de que estas variaciones no provoquen desvíos radicales en lo que entendemos como vida cotidiana, es, una vez más, y al igual que con la relatividad de Einstein, debido a su influencia microscópica, pero de ser más grandes, quedarían absolutamente justificados todos los fenómenos paranormales registrados en la historia del planeta, casas embrujadas incluídas, ya que microscópicamente estos sucesos son cotidianos y normales ( lo cual nos lleva a reflexionar si en dichos casos podría tratarse de una anomalía que aumenta el valor de h-barra en el macrocosmos equiparándolo al microcosmos, y si dicha anomalía es espontánea o inducida inteligentemente, como se sugiere en series como Fringe ).
LOUIS DE BROGLIE 
La física cuántica transformó la luz, que pasó de ser una corriente de partículas ( según Newton ) a una onda con propiedades de partícula al mismo tiempo, o “dualidad onda-partícula”, y junto con la luz se transformaron también las partículas de la materia misma, que pasaron a ser también ondas al mismo tiempo, según las sugerencias del aristócrata francés Príncipe Louis de Broglie, quien añadió un nuevo elemento al marco matemático de la mecánica cuántica cuando sugirió que si E=mc2 relaciona masa con energía, y Planck y Einstein relacionaron energía con frecuencia de ondas, combinando ambas cosas, la masa debería tener también una expresión en forma de onda, por lo cual un electrón podría tener una descripción válida en términos de ondas, lo cual fue confirmado experimentalmente por primera vez en 1920 por los físicos de la empresa telefónica Bell Davisson y Gremer y luego confirmado por otros numerosos estudios. 
ERWIN SCHRÖDIGER Y MAX BORN 
Apareció entonces el genial físico austríaco Erwin Schrödinger y sugirió que las ondas eran electrones partidos o dispersados, concepto que pulió el físico alemán Max Born respaldado por una enorme cantidad de datos experimentales, al enunciar que la onda electrónica debía interpretarse desde el punto de vista de la probabilidad: los lugares en que la magnitud de onda es grande es más probable encontrar al electrón y viceversa, lo cual significa que la materia debe explicarse fundamentalmente de una manera probabilística: no se pueden predecir resultados exactos para los experimentos, sólo predecir la probabilidad de que se pueda obtener un resultado determinado, y mediante la repetición del mismo numerosas veces determinar matemáticamente la forma precisa de las ondas de probabilidad. 
Según este concepto cuántico, el universo evoluciona según un formalismo matemático riguroso y preciso, pero este marco sólo determina la probabilidad de que llegue algún futuro concreto, sin decir qué futuro será realmente el que llegue. 
Allí fue donde Einstein se plantó con su famoso “dios no juega a los dados con el universo” y se declaró en desacuerdo ( el famoso físico teórico contemporáneo Stephen Hawking opinaría al respecto que “Einstein está confundido, nó la teoría cuántica” ). 
RICHARD FEYNMAN 
Finalmente, llegaría Richard Feynman suplantando con sus “trayectorias sumadas” la probabilidad del electrón de De Broglie, Born y Schrödinger al establecer que un electrón que se abre paso hacia una pantalla fosforescente atraviesa simultáneamente todas las direcciones posibles, lo cual equivale a decir que entra y sale al mismo tiempo o que sigue todos los caminos posibles que conectan su punto de partida con su destino final, simultáneamente. 
 Feynman demostró que podía asignar un número a cada uno de estos caminos, y su promedio combinado produjo exactamente el mismo resultado de la probabilidad, por lo cual no era necesario asociar ninguna onda de probabilidad al electrón. 
WERNER HEISENBERG 
Si algún sello de “marca registrada” como forma de pensamiento alternativo le faltaba al razonamiento cuántico sobre el pensar clásico, éste se lo puso el físico alemán Werner Heisenberg con su “principio de incertidumbre”, que recoge lo más fundamental de la mecánica cuántica. 
Estableció que no es posible determinar con exactitud el camino que sigue el electrón pues al ir a medir su posición se causa algún tipo de efecto perturbador que invalida el experimento. 
Y si se logra medir con mayor precisión alguna de sus características, es siempre en desmedro de la exactitud de la otra.
Esta ley es aplicable directamente a TODOS los componentes de la naturaleza. 
El principio de incertidumbre dá lugar también a un efecto curioso conocido como efecto túnel: si se dispara un perdigón de plástico contra un muro el perdigón rebotará, porque no tiene energía suficiente para penetrarlo, pero a nivel de partículas fundamentales, la mecánica cuántica muestra inequívocamente que las funciones de onda de las partículas que constituyen el perdigón tienen todas ellas una parte diminuta que SÍ SALE a través del muro. 
Esto significa que hay una probabilidad pequeña, pero nó nula, de que el perdigón pueda realmente penetrar la pared y salir por el otro lado. 
Esto se explica porque existe un tira y afloja entre la precisión al medir energías y el tiempo que se tarda en hacer la medición: no se puede decir con precisión que una partícula tiene una determinada cantidad de energía en un momento determinado en el tiempo, por lo cual la energía que tiene una partícula puede flucturar ampliamente siempre y cuando lo haga durante un intervalo de tiempo lo suficientemente corto. 
Así, las partículas microscópicas pueden tomar prestada energía suficiente para hacer lo que es imposible desde el punto de vista de la física clásica, es decir abrirse camino, como por un túnel, a través del muro ( aunque dado la enorme cantidad de partículas que posee el muro el efecto túnel se vuelve muy improbable pues todas y cada una de las partículas tendrían que tener la suerte de poder abrirse camino juntas ). 
Para lograr lo mismo en la macroescala del mundo real, atravesar un muro llevaría más tiempo que el total de la edad actual del universo, pero si la longevidad nos lo permitiera, finalmente lograríamos salir por el otro lado. 
LAS SUPERCUERDAS 
Hemos visto hasta aquí que cada principio considerado fundamental, en algún punto entró en conflicto con otro igualmente esencial: las leyes de Newton con las de Einstein, y éstas con los resultados cuánticos aplicados a la estructura espacio-temporal: problemas de física bien formulados provocan resoluciones disparatadas cuando se mezclan ecuaciones de las distintas teorías. 
Nosotros tenemos nuestras propias ideas sobre la hipotética fórmula que conciliaría estas fórmulas y creemos que pasa por el magnetismo de Niklola Tesla, pero eso será objeto de algún otro post ( muchos de estos principios ya los hemos expuesto en posts anteriores ), pero nó en el contexto de esta nota, donde la derivación histórica nos lleva a la Electrodinámica Cuántica, o teoría cuántica de campos, donde la relatividad especial, y las cuestiones probabilísticas y de incertidumbre están incorporadas desde el principio, fusionando los principios cuánticos con las nociones clásicas del campo de fuerza electromagnético de Maxwell y que han logrado consolidar el papel de los fotones como los paquetes de luz más pequeños que pueden existir poniendo de manifiesto sus interacciones con partículas cargadas eléctricamente como los electrones dentro de un marco matemáticamente completo, convincente y capaz de realizar predicciones. 
El estudio de las fuerzas nuclear débil, nuclear fuerte y gravitatoria a través de la electrodinámica generó enormes avances en la comprensión de las propiedades y comportamiento de gluones, bosones y fotones. 
Y esto nos lleva de cabeza hasta la Teoría de las Supercuerdas, cuya primera prueba convincente fue aportada por los físicos Michael Green y John Schwarz en 1984. 
Con sorprendentes metáforas musicales, esta teoría sugiere que el paisaje microscópico está cubierto por diminutas cuerdas cuyos modelos de vibración orquestan la evolución del cosmos. 
Los componentes elementales del universo no son partículas sinó diminutos filamentos unidimensionales de ubicación profunda en lo más interno de la materia, que vibran de un lado para otro. 
Estas cuerdas son tan pequeñas que parecen puntos incluso cuando son examinadas por los instrumentos más potentes ( serían de aproximadamente la longitud de Planck, es decir, alrededor de cien trillones de veces menores que el núcleo de un átomo ) y parecen resolver el conflicto entre la relatividad y la cuántica gracias a su naturaleza alargada que crea el necesario marco armonioso para incorporar ambas teorías y propone que toda la materia y todas las fuerzas surgen a partir de un componente básico: las cuerdas oscilantes. 
Esta teoría tiene el potencial para demostrar que tanto el baile frenético de los quarks subatómicos y el vals orbital de las estrellas dobles integran el mismo remolino majestuoso, aunque requiere su propia redecoración severa de las concepciones del espacio y el tiempo, empezando por olvidarnos que nuestro universo tiene sólo tres dimensiones espaciales, sólo porque seamos de captar ésas, para aceptar que se trata de una laberíntica tela microscópica ricamente multidimensional y complejamente entrelazada. 
VENEZIANO, SCHWART Y SCHERK 
Sus orígenes se remontan a las febriles investigaciones que se originaron a partir del descubrimiento del joven físico teórico Gabriele Veneziano en 1968, cuando siendo investigador del CERN notó que una vieja y esotérica fórmula inventada por el matemático suizo Leonhard Euler llamada función beta de Euler se ajustaba perfectamente a la descripción de numerosas propiedades de partículas que interaccionaban fuertemente entre sí en los aceleradores de partículas atómicas. 
En 1970, Yoichiro Nambu ( Universidad de Chicago ); Leonard Susskind ( Universidad de Stanford ) y Holger Nielsen ( Niels Bohr Institute ) revelaron los principios físicos hasta entonces desconocidos ( incluso para Veneziano ) que se ocultaban detrás de la fórmula de Euler y que, construyendo un modelo de partículas elementales considerándolas como pequeñas cuerdas vibratorias unidimensionales, sus interacciones nucleares se podían describir con toda exactitud. 
Cierto número de contradicciones entre las predicciones y las observaciones parecieron enviar luego la teoría de las cuerdas a la papelera de reciclaje, pero en 1974, John H. Schwartz y Joel Scherk transformaron estos aparentes vicios en virtudes demostrando que las fallas habían ocurrido porque los físicos habían reducido indebidamente su alcance, pues la teoría de las cuerdas no era solamente una teoría de fuerza nuclear fuerte, sinó también una teoría cuántica que incluía además la gravedad, enunciado que, según sus propios autores, “fue ignorado a nivel universal” hasta 1984, cuando luego de doce años de intensa investigación, la pareja realizó una publicación decisiva que resolvía los sutiles conflictos cuánticos que padecía la teoría de las cuerdas demostrando además que tenía capacidad suficiente para abarcar las cuatro fuerzas y todo tipo de materia. 
Este hallazgo provocó que cientos de físicos de partículas abandonaran sus proyectos para poner todos sus recursos hacia el salto que prometía ser el último campo de batalla para unificar el Todo. 
 El período comprendido entre 1984 y 1986 fue conocido como “la primera revolución de las cuerdas” donde físicos de todo el mundo escribieron más de mil publicaciones sobre esta teoría. Grandes altibajos y períodos de sequía creativa siguieron a este brote inicial, hasta que en 1995 en una conferencia celebrada en la Universidad del sur de California, Edward Witten anunció un plan para dar el siguiente paso, poniendo así en marcha la “Segunda Revolución de las Supercuerdas”, camino que pondrá seriamente a prueba el potencial técnico de los expertos. 
La teoría de las cuerdas afirma que, si las supuestas partículas puntuales de un modelo estándar se pudieran examinar con una precisión significativamente mayor que nuestra capacidad actual, se vería que cada una de ellas está formada por un único y diminuto bucle de cuerda que realiza oscilaciones. Conceptualmente, totalmente de acuerdo, pues consideramos que existe un conocimiento profundo oculto tras lo secreto o aparentemente aleatorio del universo, velado temporalmente sólo ante la miopía de nuestro sentido común, miopía que se vá revirtiendo a medida que encontramos gafas tecnológicamente más sofisticadas. 
También sostiene que las cuerdas son átomos o componentes indivisibles en el sentido más auténtico de la palabra griega, componentes absolutamente mínimos que representan la última “matrioska” de las muñecas rusas. 
Totalmente en desacuerdo con este enunciado, nosotros pensamos que cada vez que se profundiza en el universo con nuevos y mejores equipos, se descubren componentes microscópicos aún más pequeños que constituyen un nivel más profundo de la materia, y las cuerdas NO SON una excepción, sinó una capa más de la cebolla cósmica. 
Se han comparado las cuerdas con las cuerdas de un violín, cada una de las cuales puede ejecutar un número infinito de modelos de vibración diferentes conocidos como resonancias, y que, del mismo modo que el instrumento musical, diferentes modelos vibratorios dan lugar a diferentes masas y cargas de fuerza. 
La masa y las cargas de fuerza de una partícula elemental están determinadas por el modelo resonante exacto de vibración que ejecuta su cuerda interna. 
Finalmente, antes de la teoría de cuerdas, aunque una partícula se consideraba elemental, se creía que eran cada una de diferentes materiales. 
Por ejemplo, el electrón poseía carga negativa y el neutrino no tenía carga eléctrica. La teoría de cuerdas, en cambio, afirma que el material de toda materia y de todas las fuerzas es el mismo, es decir, cada partícula individual ES una cuerda individual, y todas las cuerdas son absolutamente idénticas. 
Las diferencias entre las distintas partículas surgen debido a que sus cuerdas están sometidas a diferentes modelos resonantes de vibración, distintas “notas” de una cuerda fundamental. 
El universo, que está compuesto por un número enorme de estas cuerdas vibrantes, se asemeja a una gran sinfonía cósmica. 
Este marco unificador, que ofrece la promesa de una descripción única, global y unificada del universo, es, además de muy poético, el fin del principio de un camino que recién comienza.

No hay comentarios:

LinkWithin

Related Posts Plugin for WordPress, Blogger...