sábado, 11 de agosto de 2007

Epistemología evolucionista.

EPISTEMOLOGÍA EVOLUCIONISTA[i]

Pretende establecer un puente entre la ciencia y la filosofía, y proporcionar una cosmovisión unitaria*

Publicado en Revista Nuestro Tiempo, nº 415-416, enero-febrero 1989, pp. 76-83.

Desde su nacimiento sistemático en el siglo XVII, la ciencia moderna se convirtió en una fuente de perplejidades. Kepler y Galileo estaban convencidos de que la naturaleza es como un libro escrito en lenguaje matemático. Pero el afianzamiento de la física de Newton llevó con razón a dudar de que esa fuese toda la historia.

¿Cómo explicar que unas construcciones teóricas, altamente abstractas y muy sofisticadas, se pudieran aplicar con éxito al mundo real? Esta pregunta se convirtió en un rompecabezas que proporcionó a los filósofos material abundante para sus especulaciones.
Filosofías justificacionistas

René Descartes, en los albores de la ciencia moderna, había establecido que sólo un conocimiento demostrable según el modelo de las matemáticas podría ser considerado como verdadera ciencia. Convencido de que esa ciencia existe, afirmó que sus bases deberían ser verdades evidentes acerca de las cuales no pudieran plantearse dudas.

En el siglo XVIII, el empirismo inglés, llevado hasta sus últimas consecuencias por David Hume, afirmó que la validez de los enunciados universales no puede ser demostrada recurriendo a la experiencia, ya que ésta sólo proporciona datos concretos, y ningún proceso lógico permite pasar desde los datos particulares a las afirmaciones generales. La situación resultaba paradójica. En efecto, a pesar del indudable éxito de la ciencia, no sería posible afirmar que sus leyes proporcionan un conocimiento auténtico acerca de la realidad. Justamente cuando comenzaba a afianzarse la ciencia experimental, sus fundamentos parecían venirse abajo.

En su Crítica de la razón pura de 1781, Kant intentó salvar la contradicción.

Estaba convencido, como Descartes, de la necesidad de demostrar todo conocimiento que se presentase como científico, estableciendo unas bases ciertas.

También creía que la física de Newton era ciencia verdadera y definitiva. Sin embargo, recibió el impacto de Hume y concluyó, como él, que la inducción a partir de la experiencia no es válida. Considerando que el escepticismo era inadmisible, encontró una solución bastante ingeniosa: puesto que los principios básicos de la ciencia no podían ser suministrados por la experiencia, tendría que admitirse que son proporcionados por el científico. En otras palabras, admitió que el conocimiento humano se basa en un conjunto de conceptos y leyes que serían a priori, o sea, independientes de la experiencia, y que proporcionarían el decorado donde se colocarían los datos de la experiencia. Esto implicaba que esos conceptos estaban presentes en cualquier persona y que, al aplicarlos correctamente a la experiencia, se obtenían precisamente las leyes fundamentales de la física newtoniana.

El convencionalismo

A finales del siglo XIX y principios del XX, la formulación de las geometrías no euclídeas y de la teoría de la relatividad mostró que la física newtoniana no tenía la validez universal que se Kant le atribuía. Además, el problema de la inducción seguía siendo como un fantasma que impedía atribuir certeza a las afirmaciones de la ciencia experimental.

En esas circunstancias, el conocido físico Henri Poincaré concluyó que, en realidad, las leyes científicas no son ni verdaderas ni falsas. Serían simplemente convenciones o estipulaciones que vendrían avaladas por sus consecuencias. Esta solución iba de acuerdo con el espíritu del positivismo de la época, que renunciaba a conocer las causas verdaderas de los hechos y afirmaba que la ciencia debe limitarse a establecer relaciones entre los fenómenos observables, calificando cualquier pretensión ulterior como metafísica imposible.

Tales ideas seguían admitiendo la concepción justificacionista de la ciencia. El convencionalismo era una consecuencia natural si se pensaba que la verdadera ciencia debería ser justificada mediante demostraciones estrictas, y que la experiencia no permite formular pruebas de ese género. Además, una vez sabido que la física newtoniana sólo era una ciencia parcial y que su valor no era definitivo, no parecía existir ningún obstáculo para sostener las ideas convencionalistas.

El racionalismo crítico

En 1934, Karl Popper publicó su primer libro, en el que afirmaba que nunca pueden justificarse las teorías y que, sin embargo, el conocimiento puede aumentar mediante el examen crítico de las mismas. El procedimiento sería el siguiente: si bien la experiencia no permite demostrar la verdad de ninguna teoría, una teoría que contradiga a la experiencia debe ser falsa. Por tanto, nunca podríamos estar ciertos de alcanzar la verdad, pero en ocasiones podríamos detectar el error. El conocimiento progresaría gracias a la detección de errores y a la consiguiente formulación de nuevas teorías mejoradas. Pero las teorías siempre serían hipótesis o conjeturas que jamás alcanzarán la condición de verdades ciertas demostradas. Todo conocimiento sería conjetural, aunque pudiera ser progresivo.

El esquema básico del aumento del conocimiento seguiría, según Popper, el método de ensayo y eliminación de error. Las teorías no provendrían de la experiencia ni serían demostradas mediante ella. Así, Popper se sitúa en la línea de Kant. Sin embargo, a diferencia de éste, afirma que las teorías son creaciones libres que pueden modificarse, y no se basan en categorías fijas e inmutables.

En sucesivos trabajos, Popper estableció un paralelismo entre el progreso del conocimiento y la evolución biológica darwiniana. Ambos procesos seguirían el mismo esquema básico de ensayo y eliminación de error, con la diferencia de que, en la evolución, lo que surge y muere son los seres vivos, mientras que en la ciencia se trata de las teorías. En los dos casos se daría un proceso similar de surgimiento de nuevas estructuras, selección que eliminaría las menos adaptadas, y supervivencia provisional de las más competitivas.
Filosofía y biología

Hasta bien entrado el siglo XX, la filosofía de la ciencia se había centrado de modo preferente en la física, la ciencia más exacta y con mayor éxito. Sin embargo, la biología ocupaba un terreno cada vez mayor en la investigación.

En dos trabajos publicados en 1941 y 1943, Konrad Lorenz recogió la teoría kantiana de las formas y categorías a priori como condición de posibilidad de la experiencia, e intentó explicar cómo surgen esas estructuras en el proceso evolutivo de mutación, selección y adaptación. Afirmó que todos los vivientes poseen estructuras innatas de conocimiento, que son un resultado del proceso evolutivo y actúan como disposiciones heredadas que hacen posible la utilización de información y la adaptación. Como las estructuras kantianas, serían condiciones a priori del conocimiento; sin embargo, al ser productos de la evolución, no serían inmutables sino cambiantes. Además, el proceso evolutivo vendría equiparado al proceso de aumento del conocimiento, en cuanto que en ambos casos se trataría de la aparición de nuevas entidades sometidas a selección, eliminación y adaptación: los dos procesos seguirían el camino común de formulación tentativa y selección adaptativa.

Tal concepción es muy semejante al esquema básico de ensayo y eliminación de error utilizado por Karl Popper. En 1974, Donald Campbell desarrolló ese esquema desde una perspectiva biológica, utilizando por vez primera el título de Epistemología evolucionista. Las ideas de Lorenz, Popper y Campbell fueron sistematizadas por Gerhard Vollmer desde 1975. El resultado es una perspectiva que desplaza la epistemología desde enfoques casi exclusivamente centrados en la física hacia otros en los que la biología ocupa un lugar central.

La Epistemología evolucionista

La Epistemología evolucionista se presenta como una perspectiva que pretende ser el avance más importante en la filosofía de la ciencia desde el siglo XVIII. Existe ya una abundante bibliografía sobre el tema, tanto favorable como crítica. La obra editada por Gerard Radnitzky y W.W. Bartley III recoge cuatro escritos de Karl Popper y Donald Campbell, que proporcionan los fundamentos de la teoría, junto con otros catorce que amplían los horizontes y responden a las críticas.

La idea central de la Epistemología evolucionista consiste en abordar los problemas de la teoría del conocimiento bajo la perspectiva de la evolución biológica. En concreto, a la pregunta original sobre la validez del conocimiento se responde recurriendo a la biología: se dice que nuestro conocimiento corresponde a la realidad porque somos seres vivientes descendientes de otros que, a lo largo del proceso de la evolución, han sobrevivido debido a que habían desarrollado capacidades de percepción y aprendizaje adaptadas al entorno.

De este modo, los interrogantes filosóficos antiguos reciben una respuesta que se presenta como científica. En este sentido, Vollmer afirma que "después de todo, la ciencia es filosofía con nuevos medios".

Desde luego, no hay dificultad en admitir que algunos problemas, considerados antes como filosóficos de un modo confuso, más tarde han sido abordados con éxito por la ciencia experimental. Basta pensar en las teorías antiguas acerca de la naturaleza de los astros o la composición de la materia. Tampoco es difícil reconocer que la ciencia experimental y la filosofía están más próximas de lo que a primera vista pudiera parecer, puesto que ambas buscan y obtienen un conocimiento de la realidad recurriendo a la experiencia y a los razonamientos lógicos. Incluso parece deseable que se restablezca la unión entre ambas perspectivas, dado que la fragmentación del saber en mundos incomunicados es una de las causas principales de las crisis de la cultura actual. Sin embargo, mayores problemas surgen si nos preguntamos por la validez del esquema básico de la Epistemología evolucionista.

Emergencia y persona humana

En efecto, para explicar el valor del conocimiento, ¿basta suponer que nuestras capacidades son el resultado de un proceso de selección y adaptación?, ¿permitiría ese proceso dar razón de la inteligencia, a la que se asocia la capacidad de formular teorías y someterlas a crítica racional?

Limitándonos al caso del hombre, los intentos de explicar nuestras capacidades intelectuales mediante la simple evolución encuentran grandes dificultades. Rosaria Egidi estudia el tema de la emergencia, advirtiendo que no se ocupa de los problemas ontológicos, y le dedica sólo cuatro páginas.Karl Popper intenta explicar cómo surgiría la mente humana en el proceso evolutivo, reconociendo que hay pocos elementos disponibles y que debe contentarse con formular conjeturas muy hipotéticas. No puede menos de ser así, porque las capacidades humanas superan ampliamente el nivel de lo material. Popper lo reconoce y, sin embargo, no da el paso que sería lógico: admitir la existencia del espíritu como algo que remite a algo situado más allá de la naturaleza y que no puede ser más que un Dios personal creador.

Quizá ese paso parezca poco científico a algunos defensores de la Epistemología Evolucionista. Sin embargo, si se pretende estudiar al hombre con todo rigor, resulta inevitable. Desde luego, se trata de un paso que trasciende los límites de la ciencia experimental. Pero ello no autoriza a pretender explicar la persona humana prescindiendo de las realidades espirituales, como si esto fuese una consecuencia del rigor científico. El rigor exige más bien que, cuando se llega a las fronteras del método que se utiliza, no se traspasen esos límites.

El pan-criticismo

Otra importante dificultad se cierne sobre la Epistemología Evolucionista, y es la siguiente:

¿es posible afirmar que todo conocimiento es conjetural y continuar hablando acerca de la verdad y del progreso del conocimiento?

Esta dificultad acompaña a la filosofía de Karl Popper desde sus inicios. Hacia 1960, W.W. Bartley propuso una solución a la que denominó racionalismo crítico comprehensivo y, más recientemente, pancriticismo. Consiste en mostrar que no hay contradicción en afirmar el carácter hipotético de todo conocimiento si además se admite que esa misma tesis es hipotética. En definitiva, se subraya que, desde el momento en que no se pretende justificar el valor definitivo de ningún conocimiento, nada impide razonar siempre de modo hipotético.

Los argumentos de Bartley no son admitidos siquiera por todos los popperianos. Sin duda, éstos dan pruebas de una gran capacidad argumentativa, y esgrimen razonamientos llenos de sutilezas. Pero las dificultades que encuentran son notables, y más todavía cuando lo que se discute es si todo, incluídos los criterios más básicos de nuestro conocimiento, puede ser sometido a crítica e incluso debe serlo.

La filosofía de Popper y sus seguidores se sitúa, de modo principal, en las coordenadas del racionalismo y del empirismo. Estas posturas tienen serios defectos que son hábilmente puestos de manifiesto por el popperianismo. Pero eso no basta. Para sostener una teoría realista acerca de la verdad, hace falta abordar con seriedad las dimensiones metafísicas, y este tipo de temas suele quedar tratado de modo fragmentario e insuficiente en la perspectiva popperiana. La epistemología popperiana tiene interesantes aciertos metodológicos y proporciona instrumentos valiosos para el análisis de algunas cuestiones de la filosofía de la ciencia, pero plantea serias dificultades si se pretende construir sobre esa base una entera filosofía, y eso es lo que parecen intentar Popper y sus seguidores ortodoxos.

Una vez más, la epistemología popperiana muestra sus virtualidades y sus limitaciones. Proporciona perspectivas provocativas e interesantes, expuestas en un estilo directo y comprensible, pero su validez parece más limitada de lo que algunos de sus defensores pretenden.

(*) Evolutionary Epistemology, Rationality, and the Sociology of Knowledge, editado por Gerard Radnitzky y W.W. Bartley III. Open Court, La Salle (Illinois) 1987.

fuente: http://www.unav.es/cryf/epistemologiaevolucionista.html



TEORÍA RELATIVISTA DEL CAMBIO CUÁNTICO

Se puede decir que durante algo más que la mitad del siglo XX, y tras importantes descubrimientos experimentales y teóricos, se pudo estructurar la imagen del micromundo subatómico que hoy conocemos. Las dos grandes familias de partículas, como los hadrones y los leptones más sus respectivos ligamentos, constituyen las unidades básicas de la materia. Las interacciones de las partículas de cada una de esas familias pueden llegar a explicar, en principio, todas las cosas materiales del universo. Pienso que lo logrado en este campo de las partículas, ha sido un gran paso que ha dado la humanidad en la empresa de comprender la naturaleza.
Proporciona el instrumento conceptual necesario para entender el Big Bang. La teoría relativista del campo cuántico nació en las pizarras de loa gabinetes de trabajo de los físicos teóricos en los años veinte. La desarrollaron cuando intentaban conjugar la nueva teoría cuántica con la teoría de la relatividad restringida o especial de Einstein.

Conseguirlo resultó bastante más difícil de lo que se había supuesto.

Como decía Steven Weinberg:

"La mecánica cuántica sin la relatividad nos permitiría concebir muchísimos sistemas físicos posibles... Pero cuando se unen la mecánica cuántica y la relatividad, resulta que es prácticamente imposible concebir ningún sistema físico. La naturaleza consigue, no se sabe cómo, ser relativista y cuántica a la vez; pero esas dos exigencias la constriñen tanto que sólo tiene una posibilidad de elección limitada en cuanto a cómo ser... una elección afortunadamente muy limitada."

El comentario de Weinberg representaba algo muy cierto, ya que tanto el principio de la relatividad como los principios de la teoría cuántica, constituían exigencias muy restrictivas, y no estaba nada claro que pudiesen integrarse con éxito en una sola descripción matemática. Pero, afortunadamente, el resultado fue otro, se logró su integración y esto tuvo consecuencias trascendentales. Los primeros intentos exitosos lo dieron los físicos teóricos Max Born, Werner Heisenberg y Pascual Jordan en 1926, cuando demostraron cómo podían aplicarse los nuevos conceptos cuánticos al campo electromagnético, campo que ya obedecía las normas de la teoría de la relatividad especial de Einstein. Estos físicos demostraron cómo podía expresarse matemáticamente la primitiva idea de Einstein de que el fotón era una partícula de luz. El llamado éefecto fotoelctrico . Los siguientes pasos decisivos los dieron Jordan y Eugene Wígner en 1918, y Heisenberg y Wolfgang Pauli en 1929-1930. Estos investigadores demostraron que cada campo diferenciado (el electromagnético, el del electrón, etc.) tenía una partícula asociada.

Las partículas eran manifestaciones de un campo «cuantificado». Esta era la idea básica de la moderna teoría de campo, que desterraba para siempre la vieja concepción según la cual partículas y campos eran entidades diferenciadas. Las entidades fundamentales eran los campos, pero se manifestaban en el mundo como partículas. Estas ideas trajeron como consecuencia un emplazamiento para que los físicos teóricos se esforzaran durante décadas para profundizar en estas nuevas teorías de campo, una aventura intelectual que se ha prolongado hasta hoy, pero ahora no sólo usando pizarras sino que también poderosos computadores coadyuvantes.

Ello, ha llevado a los teóricos ha obtener nuevos conceptos, que no sólo son el producto de sus propios trabajos, sino que además han sido fuertemente empujados por los descubrimientos de sus colegas experimentales (descubrimientos que exigen una explicación) y también su propio deseo de hallar un lenguaje coherente definitivo para describir el mundo cuántico. Pero, esas ideas ¿cómo nos llevan a concebir las partículas cuánticas? Resulta difícil no imaginar las partículas cuánticas como objetos corrientes sólo que muy pequeños. Y por eso, porque es tan fácil hacerlo, los físicos piensan en ellos como si fueran objetos corrientes. Pero las partículas elementales no están hechas de «material», como un mueble está hecho de madera, tornillos y cola. Cualquier imagen visual simple de este tipo se desintegra por completo en cuanto se empiezan a formular preguntas detalladas. Entonces es cuando entra en juego el extraño mundo de la realidad cuántica. El primer medio del que se sirven los físicos para concebir estas partículas son las propiedades intrínsecas que las clasifican, como su masa, spin, carga eléctrica, etc. El segundo medio que tienen de pensar en ellas son sus interacciones con otras partículas. En cuanto un físico conoce las propiedades intrínsecas de una partícula cuántica y conoce todas sus interacciones, sabe ya todo lo que puede saber de esa partícula.

Pero, ¿cómo describen los físicos lo que saben? Las propiedades observadas de las partículas cuánticas pueden describirse con exactitud en el lenguaje de las matemáticas, y dentro de este lenguaje, la noción de simetría ha pasado a desempeñar un papel de importancia creciente. ¿Por qué simetría? Uno de los motivos es que se cree que las partículas cuánticas fundamentales, como los electrones o los fotones, carecen de estructura (no están compuestas de partes más simples), pero poseen, sin embargo, ciertas simetrías, lo mismo que posee simetría un cristal. Además, el electrón, sea lo que sea, es muy pequeño, quizás una partícula puntiforme. Los conceptos de simetría resultan sumamente útiles para describir algo que carece de partes y es muy pequeño. Imaginemos, por ejemplo, una esfera inmóvil en el espacio. La esfera parece la misma si nos movemos a su alrededor, tiene la propiedad de ser esféricamente simétrica. Aunque la esfera se contraiga mucho, incluso hasta el tamaño de un punto, conserva esa propiedad de la simetría esférica; la partícula es también esféricamente simétrica. Si en vez de una esfera imaginamos un elipsoide, que sólo es simétrico alrededor de un eje, cuando se reduce hasta un tamaño cero, también conserva su simetría. Todos estos ejemplos nos indican que aunque algo sea muy pequeño y carezca de estructura, de todos modos, puede tener simetrías específicas. Incluso a un objeto complicado, como un átomo formado de electrones y núcleo, o un núcleo atómico compuesto de neutrones y protones, puede aplicársele, con consecuencias apreciables, el concepto de simetría.

Las interacciones entre los elementos constitutivos de átomos y núcleos poseen también simetrías específicas que ayudan a determinar las estructuras más complejas, lo mismo que las simetrías de las baldosas determinan de qué modo pueden disponerse. Como veremos más adelante, las partículas cuánticas elementales se definen en función de cómo se convierten en «operaciones de simetría» matemáticas. Por ejemplo, cómo cambia una partícula cuántica si le hacemos efectuar una rotación alrededor de un eje en el espacio, una operación de simetría. El papel de la simetría en la descripción de las propiedades de las partículas cuánticas es básico en todo el campo de la física moderna. El físico teórico C. N. Yang lo expresó así:

"La naturaleza parece aprovechar las simples representaciones matemáticas de las leyes de simetría. Si nos detenemos a considerar la elegancia y la bella perfección del razonamiento matemático que entra en juego y las comparamos con sus consecuencias físicas complejas y de largo alcance, surge siempre un profundo sentido de respeto hacia el poder de las leyes de simetría."

Para entender mejor la relación entre simetrías matemáticas abstractas y cómo se representan éstas en las partículas elementales reales, recordemos la aplicación decimonónica de las ideas de simetría a los diversos tipos de cristales que se forman en la naturaleza, como la sal, los diamantes o los rubíes. Podemos imaginar un cristal como un reticulado espacial, una estructura periódica concreta de átomos en el espacio. Olvidémonos por el momento de los cristales y, en vez de pensar en ellos, imaginemos un reticulado matemático de puntos unidos por líneas, como la malla de una tela metálica que llenase todo el espacio. La malla es cuadriculada como una rejilla cuadrada, pero podríamos imaginar perfectamente una rejilla de forma romboidal o triangular, siempre que se repitiera periódicamente. Los matemáticos determinaron y clasificaron todas las estructuras reticulares periódicas posibles de este tipo en el espacio tridimensional por medio de ideas abstractas sobre simetría.

En este caso, la simetría es la simetría o invarianza que se apreciaría al realizar un desplazamiento en el espacio, como, por ejemplo, a lo largo del contorno de un cubo en un reticulado cúbico infinito, y descubrir que el reticulado no varía. Estas simetrías pueden considerarse, pues, operaciones matemáticas abstractas en el espacio tridimensional. Si volviésemos ahora a pensar en los cristales concretos que hallamos en la naturaleza, nos encontraríamos con que todos los cristales reales posibles son representaciones de esas simetrías matemáticas, porque también ellos son estructuras periódicas en el espacio. Asimismo, las partículas cuánticas concretas observadas en la naturaleza (electrones, protones y neutrones) representan las simetrías matemáticas abstractas de la leyes naturales. Hablando en términos generales, las partículas cuánticas son como cristales microscópicos y pueden describirse plenamente por sus propiedades de simetría. La simetría es la llave que abre la puerta del mundo microscópico al pensamiento humano. La teoría relativista del campo cuántico (el lenguaje que describe las simetrías de las partículas cuánticas) es una disciplina matemática compleja, pero sus ideas básicas pueden captarse en términos elementales.

EL ENIGMA EN El CORAZÓN DE LA FISICA

El desafío de intentar comprender la naturaleza de la materia y la energía ha lastrado el ingenio de los científicos desde los días de Aristóteles. Muchos se han dedicado al estudio de la luz en busca de respuestas, pero a menudo las respuestas no han hecho más que suscitar nuevas preguntas. En el siglo XVII, por ejemplo, Isaac Newton experimentó con prismas que refractaban la luz y propuso la idea de que la luz estaba hecha de un chorro de partículas. Este punto de vista fue ampliamente aceptado hasta principios de la década de 1800, cuando el compatriota de Newton Thomas Young halló razones de peso para rechazar la teoría de la luz como partículas. Utilizando un dispositivo similar a los ilustrados abajo, Young hizo pasar una luz a través de estrechas ranuras en un tablero en dirección a una pantalla detectora situada al otro lado. El resultado -una serie de franjas brillantes y oscuras- le convenció de que la luz se mueve en ondas. Del mismo modo que las aberturas en un rompeolas generan conjuntos de olas que se superponen, las ranuras en el experimento de Young parecían hacer que la luz produjera un esquema de interferencias similar (abajo, a la derecha). Las bandas brillantes en la pantalla representaban lugares donde las ondas se reforzaban unas a otras; las bandas oscuras, lugares donde las ondas se cancelaban.

La interpretación de Young suplantó a la teoría de las partículas durante un tiempo, pero no pudo explicar fenómenos tales como el efecto fotoeléctrico (arriba). En realidad, ni la teoría de las ondas ni la de las partículas sola puede describir completamente el comportamiento de la luz. Se precisa una juiciosa aplicación de ambos modelos para cubrir los fenómenos electromagnéticos, una paradoja que ha sido apodada el «misterio central» de la física. Los científicos que reproducen hoy el experimento de las dobles ranuras de Young con un equipo más sofisticado pueden demostrar la naturaleza dual de la luz. Como se ilustra abajo, partículas como balines producirán un tipo de esquema cuando pasen a través de dos ranuras, las ondas causarán otro. Si se individualiza la luz, el esquema creado debe parecerse al generado por los balines. Y, de hecho, si primero se cierra una ranura y luego la otra, el esquema resultante seguirá las reglas del comportamiento como partículas: dos bandas alineadas con las ranuras. Pero tan pronto como sean abiertas las dos ranuras, el esquema cambia a una serie de bandas resultantes de la interferencia ondulatoria. Esto sigue siendo cierto aunque los fotones sean lanzados tan lentamente a la pantalla que la alcancen uno a uno, Es como si cada partícula pasara de algún modo a través de las dos ranuras. Hasta ahora, ni siquiera los físicos de mayor renombre han podido explicar esta peculiar manifestación de rareza cuántica.

En el experimento mostrado a la izquierda, las balas de una ametralladora pasan a través de dos ranuras en la barrera y golpean la barrera de atrás. A su debido tiempo, emergen dos bandas de impactos. El acertijo de la luz es que este esquema será creado si se cierra primero una ranura y luego la otra. Pero si se abren las dos, la luz generará el esquema ondulatorio de interferencias de la derecha. Junto a estas líneas está el esquema de interferencias de bandas estrechas producido típicamente por las ondas. Las ondas brotan a través de las estrechas aberturas y se escinden en nuevos conjuntos de ondulaciones concéntricas que cruzan y vuelven a cruzar antes de golpear la pantalla trasera. Las líneas de puntos marcan las crestas de intersección, refuerzos que se mostrarán intensamente en la pantalla detectora.
Fuente:
MESOGRAFÍA
[i]. Mariano Artigas.