Langan_CTMU_0929021-1 es
Langan_CTMU_0929021-1 es
Langan_CTMU_0929021-1 es
Contenido
Introducción
Sobre teorías, modelos y falsas dicotomías
Determinación, indeterminación y la tercera opción
El futuro de la teoría de la realidad según John Wheeler
Algunos principios adicionales
Algunos antecedentes
Introducción al SCSPL
SCSPL como circuito autoexcitado
La CTMU y el diseño inteligente
2002 Christopher Michael Langan <[email protected]> Consulte la versión más reciente de este artículo en: www.ctmu.net
Introducción
¿Cómo hacerlo? En una palabra, con el lenguaje. Esto no significa simplemente que el
lenguaje deba utilizarse como herramienta para analizar la realidad, pues esto ya se ha hecho
innumerables veces con diversos grados de éxito. Tampoco significa que la realidad deba
considerarse como un lenguaje de máquina que funciona en una especie de gran ordenador.
Significa utilizar el lenguaje como un paradigma matemático en sí mismo. De todas las
estructuras matemáticas, el lenguaje es la más general, poderosa y necesaria. No sólo toda
teoría formal o de trabajo de la ciencia y las matemáticas es por definición un lenguaje, sino
que la ciencia y las matemáticas en su conjunto y en suma son lenguajes. Todo lo que puede
2
describirse o concebirse, incluida toda estructura, proceso o ley, es isomorfo a una descripción
o definición y, por tanto, puede considerarse un lenguaje, y toda criatura sensible
3
afirma constantemente la estructura lingüística de la naturaleza explotando el isomorfismo
sintáctico para percibirla, conceptualizarla y referirse a ella. Incluso la cognición y la percepción
son lenguajes basados en lo que Kant podría haber llamado "sintaxis fenoménica". Con la lógica
y las matemáticas entre sus ingredientes sintácticos más fundamentales, el lenguaje define la
estructura misma de la información.
Esto es más que una verdad empírica; es una necesidad racional y científica.
El hecho de que las leyes de la naturaleza sean un lenguaje reviste especial interés para los
científicos naturales. Hasta cierto punto, la naturaleza es regular; los patrones básicos o
aspectos generales de la estructura en términos de los cuales se aprehende, hayan sido o no
identificados categóricamente, son sus "leyes". La existencia de estas leyes viene dada por la
estabilidad de la percepción. Dado que estos patrones repetitivos o leyes universales describen
simultáneamente múltiples instancias o estados de la naturaleza, pueden considerarse como
"instrucciones" distribuidas de las que las autoinstanciaciones de la naturaleza no pueden
desviarse; así, forman un "lenguaje de control" a través del cual la naturaleza regula sus
autoinstanciaciones. Este lenguaje de control no es del tipo habitual, ya que de algún modo está
incorporado en el tejido mismo de la realidad y parece anular las limitaciones conocidas de los
sistemas formales. Además, es profundamente reflexivo y autónomo con respecto a la
configuración, la ejecución y las operaciones de lectura y escritura. Sólo unos pocos y atrevidos
han estado dispuestos a considerar cómo podría funcionar... a preguntarse en qué parte de la
realidad podrían residir las leyes, cómo podrían expresarse y aplicarse, por qué y cómo
s u r g i e r o n , y cómo se mantienen su coherencia y universalidad. Aunque es evidente que
estas cuestiones son de gran interés científico, la ciencia por sí sola es lógicamente inadecuada
para responderlas; se necesita un nuevo marco explicativo. Este artículo describe lo que el autor
considera el marco más prometedor en los términos más sencillos y directos posibles.
Como nota de indulgencia, siempre ha sido reconfortante la creencia de que los métodos
híbridos empírico-matemáticos estándar de la física y la cosmología bastarán en última instancia
para revelar el verdadero corazón de la naturaleza. Sin embargo, ha habido numerosas señales
de que puede haber llegado el momento de probar un nuevo enfoque. Con los verdaderos
creyentes impávidos ante las limitaciones explicativas (matemáticamente factuales) de los viejos
métodos, debemos empatizar, por supuesto; es difícil cuestionar las inversiones previas de uno
cuando ya se ha invertido toda la fe que se tiene. Pero la ciencia y la filosofía no progresan
considerando sus inversiones pasadas como fines en sí mismas; el objetivo es siempre
preservar lo que hay de valioso en los métodos antiguos al tiempo que se adosan nuevos
métodos que refinan su significado y amplían sus horizontes. El nuevo enfoque que vamos a
explorar en este artículo, que podría resumirse de forma pintoresca como "la teoría de la
realidad se une a la teoría del lenguaje y dan lugar a una síntesis", tiene la ventaja de que deja
prácticamente intacta la imagen actual de la realidad. Se limita a crear una imagen lógica
especular de la imagen actual (su dual conspansivo), fusiona las mitades simétricas de la
imagen resultante e intenta extraer implicaciones significativas.
La ciencia, tal y como la conocemos ahora, ha cambiado poco a cambio de lo que, si el destino
nos sonríe, puede resultar ser un gran avance en profundidad, importancia y poder explicativo.
En este sentido, les agradezco su amable atención y les deseo un fructífero viaje.
Resulta casi embarazoso afirmar que la ciencia está en crisis... no porque no sea cierto, sino
porque se ha convertido en un tópico que con demasiada frecuencia va acompañado de escasa
o nula perspicacia correctora. A pesar de los magníficos logros de la ciencia, sus grandes
ambiciones hace tiempo que consiguieron llevar sus modelos y principios organizativos
tradicionales más allá de sus límites explicativos. En su búsqueda de explicaciones cada vez
más profundas y amplias, la ciencia ha llegado a un punto en el que ya no puede negar la
existencia de dificultades conceptuales insolubles derivadas de la insuficiencia explicativa de
sus modelos conceptuales fundamentales de la realidad. Esto ha dado lugar a una nueva
disciplina conocida como teoría de la realidad, el estudio de la naturaleza de la realidad en su
4
sentido más amplio.
El objetivo general de la teoría de la realidad es proporcionar nuevos modelos y nuevos
paradigmas que permitan comprender la realidad y restablecer la coherencia de la ciencia a
medida que se profundiza en ella y se amplía su alcance.
5
La corriente principal de la teoría de la realidad cuenta entre sus focos más candentes la
interpretación de la teoría cuántica y su reconciliación con la física clásica, el estudio de la
conciencia subjetiva y su relación con la realidad material objetiva, la reconciliación de la ciencia
y las matemáticas, la teoría de la complejidad, la cosmología y ramas afines de la ciencia, las
matemáticas, la filosofía y la teología. Pero en un sentido integrado, se encuentra actualmente
en un modo exploratorio, ocupándose de la búsqueda de un marco conceptual general en el que
desarrollar una teoría y un modelo más específicos de la realidad capaces de resolver las
paradojas e incoherencias conceptuales que plagan sus diversos campos de interés (donde un
modelo se define técnicamente como una interpretación válida de una teoría en su universo de
referencia). Debido al alcance universal de la teoría de la realidad, está sujeta a exigencias
únicas, aunque rara vez reconocidas; por ejemplo, puesto que es por definición una teoría
universal de todo lo que es real, debe contener por definición sus reglas de interpretación del
mundo real. Es decir, la teoría de la realidad debe contener su propio modelo y efectuar su
propia correspondencia autointerpretativa con él, y debe ajustarse a las implicaciones de este
requisito. Esta capacidad de "automodelación" es un criterio primordial del marco requerido.
Entre los teóricos de la realidad hay investigadores de casi todas las disciplinas científicas. A
medida que las ciencias físicas han ido adoptando una visión mecánica cuántica de la realidad y
que la ciencia en general se ha ido aficionando a la simulación por ordenador como herramienta
experimental, el modelo continuo tradicional de la física clásica ha ido perdiendo terreno frente a
una nueva clase de modelos en los que los conceptos de información y computación son
esenciales.
Denominados "modelos discretos", describen la realidad en términos de bits, cuantos, sucesos
cuánticos, operaciones computacionales y otras unidades discretas relacionadas
recursivamente. Mientras que los modelos continuistas se basan en la noción de un continuo, un
todo unificado extensible con uno o más parámetros de distancia que puede subdividirse
infinitamente de forma que dos puntos distintos cualesquiera estén separados por un número
infinito de puntos intermedios, los modelos discretos se distinguen por reconocer de forma
realista que es imposible describir o definir un cambio o separación de cualquier forma que no
implique un salto finito repentino en algún parámetro.
Desgraciadamente, las ventajas de los modelos discretos, que están recibiendo una
consideración cada vez más seria por parte de las comunidades científica y filosófica, se ven
superadas por ciertas deficiencias básicas. No sólo presentan problemas de escala y no
localidad asociados a su "hardware de visualización", sino que son inadecuados por sí mismos
para generar la infraestructura conceptual necesaria para explicar el medio, dispositivo o
conjunto en el que evolucionan, o sus estados iniciales y la programación de la transición de
estados. Además, siguen anclados en el materialismo, el objetivismo y el dualismo cartesiano,
cada uno de los cuales ha demostrado ser un obstáculo para el desarrollo de una explicación
exhaustiva de la realidad. El materialismo excluye arbitrariamente la posibilidad de que la
realidad tenga un aspecto no material significativo, el objetivismo excluye arbitrariamente la
posibilidad de que la realidad tenga un aspecto subjetivo significativo y, aunque el dualismo
cartesiano técnicamente no excluye ninguno de los dos, niega arbitrariamente que los lados
mental y material, o subjetivo y objetivo, de la realidad compartan una sustancia común.5
Casi se podría tener la impresión de que las dos únicas opciones disponibles son el modelo
clásico, al que la teoría cuántica se ha fijado con aproximadamente el mismo grado de
contundencia que los cuernos a una liebre, y los nuevos modelos discretos, que pretenden estar
más en consonancia con la teoría cuántica, pero que se quedan en el camino hacia el nuevo tipo
de cosmología cuántica que portentosamente parecen prometer. Y es que tales afirmaciones
muestran una ironía inconfundible: ¡la realidad clásica es precisamente aquella sobre la que se
definen la información y la computación! Al igual que la propia realidad clásica, una entidad bien
definida incapaz de dar cuenta de su propia génesis, la información y la computación son
aspectos bien definidos y no autogenerativos de la realidad tal y como se nos presenta
observacionalmente en una fase avanzada de su existencia. Por tanto, suscitan las mismas
preguntas que la realidad clásica: ¿cómo y por qué se definieron y generaron originalmente? Sin
una respuesta a esta pregunta, poco se puede ganar sustituyendo un tipo de realidad por el otro.
6
Algunos se habrán sentido, al ver la historia de las Grandes Teorías y los Nuevos Paradigmas
desarrollarse en los últimos años, como si les estuvieran obligando a ver el mismo programa, o a
leer la misma novela, mil veces en tediosa sucesión sin más que una pequeña revisión ocasional
de
7
trama o personaje. Sin embargo, existe una tercera alternativa que hasta ahora ha permanecido
en segundo plano. Aporta exactamente lo que se necesita a la luz de cualquier tesis y antítesis:
síntesis. Esta síntesis da lugar a una nueva clase de modelo(s)6 que conserva las mejores
características de tesis y antítesis, continuum y quantum, uniéndolas mediante principios
generales y preferiblemente evidentes. Este artículo presenta esta nueva clase a través de un
único ejemplo, el Modelo Cognitivo-Teórico del Universo (CTMU).
Al igual que las matemáticas, la ciencia y la filosofía de las que proceden, los modelos clásicos
continuistas y modernos discretos de la realidad suelen admitir exactamente dos modos de
determinación: la causalidad externa y la acausalidad o "aleatoriedad". Dado un objeto,
acontecimiento, conjunto o proceso, se suele suponer que ha surgido de una de estas dos
maneras o de ambas: (1) su existencia se debe a algo previo y externo a él; (2) no tiene causa y
surgió espontáneamente y sin sentido de la nada, como por arte de magia. Lo mismo ocurre con
su comportamiento: o bien está controlado por leyes invariantes con respecto a él y, por tanto,
existencialmente externas a él (aunque lo controlen a través de su estructura y propiedades
intrínsecas), o bien se comporta de forma totalmente aleatoria e incontrolada. Esto ha dado lugar
a una dicotomía: determinismo frente a aleatoriedad, o ausencia total de causalidad frente a
causalidad por leyes que son, en última instancia, independientes de la entidad determinada.
8
Si la determinación corresponde a una flecha de causalidad que apunta a un acontecimiento
procedente de un medio circundante, la indeterminación corresponde a la ausencia total de
flecha (acausalidad), y la autodeterminación a una flecha en bucle o a un complejo de flechas
que implican algún tipo de retroalimentación. Pero la retroalimentación cibernética, que implica la
transmisión de información entre controladores y entidades reguladas a través de un medio
conductor o transmisor, carece de sentido cuando tales entidades no existen todavía y cuando
no se ha proporcionado ningún protocolo sensorial o de actuación. Con respecto al origen de
cualquier sistema autodeterminado y perfectamente autónomo, la retroalimentación es de
naturaleza ontológica y, por tanto, más que cibernética. En consecuencia, la retroalimentación
ontológica merece ser descrita como "precibernética" o "metacibernética". De hecho, debido a su
relación particularmente estrecha, las teorías de la información, la computación y la cibernética
están todas en línea para una extensión convergente... una extensión que puede, en un contexto
de teoría de la realidad, sentar muchas de las bases para una extensión convergente de todo lo
que cubren sus respectivos formalismos.7
La retroalimentación ordinaria, que describe la evolución de los sistemas mecánicos (y, con
algo menos de éxito, biológicos), es cíclica o recursiva. El sistema y sus componentes
recurren repetidamente a estructuras internas, rutinas y mecanismos de accionamiento para
adquirir información, generar la información interna correspondiente, comunicar y procesar
internamente esta información y evolucionar a los estados apropiados a la luz de la
información y la programación. Sin embargo, cuando se trata de describir la evolución de un
sistema a partir de un estado en el que no hay información ni programación (sintaxis de
procesamiento de la información) en absoluto, se requiere un nuevo tipo de retroalimentación:
la retroalimentación télica.
Diagrama 2: El diagrama superior ilustra la retroalimentación cibernética ordinaria entre dos transductores de
información que intercambian y actúan sobre una información que refleja sus estados internos. La estructura y el
comportamiento de cada transductor se ajustan a una sintaxis, o conjunto de reglas estructurales y funcionales
que determinan cómo se comporta ante una entrada dada. En la medida en que cada transductor es determinista
o no determinista (dentro de los límites de la restricción sintáctica), el sistema es determinista o "aleatorio hasta la
determinación"; no hay ninguna disposición para la autocausalidad por debajo del nivel sistémico. El diagrama
inferior, que se aplica a los sistemas autodiseñados coherentes, ilustra una situación en la que la sintaxis y el
estado se determinan en tándem de acuerdo con una función de utilidad generalizada que asigna valores
diferenciales pero intrínsecamente escalonados a varias relaciones sintaxis-estado posibles. Una combinación de
estos dos escenarios se ilustra parcialmente en el diagrama superior mediante las sombras grises dentro de cada
transductor.
10
propiedad específica a cualquier objeto específico). Mediante la retroalimentación télica, un
sistema se autoconfigura retroactivamente aplicando reflexivamente una "función de utilidad
generalizada" a su potencial existencial interno o a sus futuros posibles. En efecto, el sistema se
trae a sí mismo a la existencia como un medio de comunicación atemporal entre su pasado y su
futuro por el que la ley y el estado, la sintaxis y el contenido informativo, se generan y refinan
mutuamente a través del tiempo para maximizar la autoutilidad sistémica total. Esto define una
situación en la que la verdadera identidad temporal del sistema es un punto distribuido de
equilibrio temporal que está a la vez entre el pasado y el futuro y los incluye. En este sentido, el
sistema es atemporal.
Un sistema que evoluciona por medio de la recursividad télica -y, en última instancia, todo
sistema debe ser o estar integrado en un sistema de este tipo como condición de existencia- no
es meramente computacional, sino protocomputacional. Es decir, su nivel primario de
procesamiento configura su nivel secundario (computacional e informacional) de procesamiento
mediante la recursividad télica. La recursividad télica puede considerarse el mecanismo
autodeterminativo no sólo de la cosmogonía, sino de una forma natural y científica de teleología.
Sin embargo, antes de profundizar en estas ideas, asistamos a una pequeña sesión de
orientación basada en la visión notablemente penetrante de John Archibald Wheeler, científico
preeminente y teórico de la realidad cuyo nombre es prácticamente sinónimo de física
moderna.
En 1979, el célebre físico John Wheeler, tras acuñar la expresión "agujero negro", le dio un buen
uso filosófico en el título de un artículo exploratorio, Beyond the Black Hole (Más allá del agujero
negro),8 , en el que describe el universo como un circuito autoexcitado. El artículo incluye una
ilustración en la que un lado de una U mayúscula, que aparentemente representa el Universo,
está dotado de un ojo grande y bastante inteligente que observa atentamente el otro lado, que
aparentemente adquiere mediante la observación como información sensorial. Por su ubicación,
el ojo representa el aspecto sensorial o cognitivo de la realidad, tal vez incluso un espectador
humano dentro del universo, mientras que el objetivo perceptivo del ojo representa el aspecto
informativo de la realidad. En virtud de estos aspectos complementarios, parece que el universo
puede describirse en cierto sentido, aunque no necesariamente en el de uso común, como
"consciente" e "introspectivo"... quizá incluso "infocognitivo".
Diagrama 3: El Universo como circuito autoexcitado. Haga clic para ver la animación [Diagrama adaptado
de Wheeler, J. A., "Beyond the Black Hole", en Some Strangeness in the Proportion: A Centennial Symposium to
Celebrate the Achievments of Albert Einstein, Woolf, H. (Ed.), Addison-Welsley, 1980, p. 362].
Wheeler, representante eminente y muy capaz de quienes conocen las ventajas y deficiencias de
nuestros modelos actuales de la realidad, no llegó a la ilustración dada como una especulación
11
aislada. En conjunción con varios otros conceptos de Wheeler, el Universo Participativo, la Ley
12
sin Ley e It from Bit, el circuito autoexcitado equivale a un programa preliminar pero bien
meditado para describir el universo físico. Según su mandato, la verdadera descripción de la
realidad debe poseer dos características novedosas que no se encuentran en ningún paradigma
dominante: (1) reflexividad estructural y dinámica global o "circuito autoexcitado", con la
percepción como parte integrante de la función de autorreconocimiento de la realidad; (2)
equivalencia materia-información, una identificación (hasta el isomorfismo) de la realidad física
concreta con la información, la moneda abstracta de la percepción.
En conjunto, estas características constituyen una extensión cosmológica de la cibernética o, lo que
es lo mismo, una extensión metacibernética de la cosmología.
Ley sin ley / Orden a partir del desorden: Concisamente, nada puede darse por supuesto
cuando se trata de cosmogonía. En palabras del profesor Wheeler: "Para mí, el mayor
descubrimiento aún por venir será descubrir cómo este universo, surgido de un Big Bang,
desarrolló sus leyes de funcionamiento. Yo llamo a esto 'Ley sin Ley' [u 'Orden a partir del
Desorden'] (...) imagínese el universo con todas sus regularidades y sus leyes surgiendo de algo
totalmente desordenado, desordenado y aleatorio... Si usted fuera el Señor construyendo el
universo, ¿cómo lo habría hecho? Es inspirador leer la vida de Charles Darwin y pensar cómo la
división de los reinos vegetal y animal, toda esta miríada de orden, se produjo a través de los
milagros de la evolución, la selección natural y la mutación fortuita. Para mí es un indicio
maravilloso de que se puede obtener orden partiendo del desorden".11
Desde el bit: La realidad se educa y/o se produce a sí misma en forma de información que
reside en los sucesos cuánticos. Como resume Wheeler en su artículo Information, Physics,
Quantum: The Search for Links, "...toda cantidad física, todo ello, deriva su significado último de
bits, indicaciones binarias de sí o no...". A continuación, analiza detenidamente este concepto,
ofreciendo tres preguntas, cuatro "noes" y cinco "pistas" sobre el carácter cuántico-informacional
de la realidad. Las preguntas son las siguientes (1) ¿De dónde viene la existencia? (2) ¿Por qué
lo cuántico? (3) ¿Cómo surge el "mundo único" a partir de muchos observadores-participantes?
Los "no", seductores escollos que hay que evitar para responder a las tres preguntas, incluyen
que no hay torre de tortugas, ni leyes, ni continuo, ni espacio ni tiempo.
Y las pistas, que iluminan el camino hacia las verdaderas respuestas, incluyen el límite de un límite
es cero; ¿No hay pregunta? No hay respuesta!; el Principio Supercopernicano; "conciencia"
(incluidas las comillas); y más es diferente.12
14
ley física del continuo establecida. (2) En el nivel microscópico no existe tal cosa como espacio
o tiempo o continuo espaciotemporal. (3) La familiar función de probabilidad o funcional, y la
ecuación de onda o ecuación de onda funcional, de la teoría cuántica estándar proporcionan
meras idealizaciones del continuo y, por esta circunstancia, ocultan la fuente teórico-
informacional de la que derivan. (4) Ningún elemento en la descripción de la física se muestra
más cercano a lo primordial que el fenómeno cuántico elemental, es decir, el acto elemental
mediado por un dispositivo de plantear una pregunta física de sí o no y obtener una respuesta o,
en resumen, el acto elemental de participación del observador. Dicho de otro modo, toda
cantidad física, todo ello, deriva su significado último de los bits, indicaciones binarias de sí o no,
una conclusión que personificamos en la frase ello a partir del bit". 13
¿Por qué lo cuántico? ¿Por qué el universo se compone de sucesos cuánticos aparentemente
propter hoc no deterministas, pero post hoc informacionales? Como observa Wheeler, "la física
cuántica requiere una nueva visión de la realidad".14 ¿Cuál es, entonces, la relación lógica
exacta entre lo cuántico y la nueva visión de la realidad que exige? ¿Cuál es esta nueva visión y
cómo encaja la cuántica en ella?
Ninguna torre de tortugas: Tomado prestado de William James, este aforismo significa
"ninguna regresión infinita a dominios y principios causales siempre anteriores". Podríamos
equipararlo a una versión actualizada de un conocido aforismo atribuido a Harry Truman: "The
explanatory buck stops here", donde aquí se refiere a la realidad que habitamos y observamos.
A esto Wheeler añade una idea crucial: "A la infinitud no hay más alternativa evidente que un
bucle, tal como: la física da lugar a la participación del observador; la participación del
observador da lugar a la información; y la información da lugar a la física".15 Sólo un bucle
ontológico de este tipo es capaz de formar un lazo lo suficientemente ancho y fuerte para el lazo
teórico de la realidad; la tarea que tenemos entre manos es, por tanto, encontrar una manera de
fabricarlo y un medio en el que esgrimirlo.
Sin leyes: Como afirma Wheeler, "El universo debe haber llegado a existir... sin siquiera un plan
preexistente... sólo un principio de organización que no es ninguna organización parecería
ofrecerse". 16 O para reiterar: "El mundo no puede ser una máquina gigante, gobernada por
ninguna ley física continua preestablecida".
No hay continuo: El venerable continuo del análisis y la mecánica es una quimera matemática
y física. (Asociado habitualmente al conjunto de los números reales, un continuo es un todo
unificado extensible con un parámetro de distancia que puede subdividirse infinitamente de tal
manera que dos puntos distintos cualesquiera están separados por un número infinito de puntos
intermedios). Como dice Wheeler "Medio siglo de desarrollo en la esfera de la lógica matemática
ha dejado claro que no hay pruebas que apoyen la creencia en el carácter existencial del
continuo numérico".17
Algunos números, por ejemplo los irracionales como √2, no pueden calcularse con precisión y, por
tanto, no
corresponden a cualquier lugar físicamente significativo de una recta numérica o trayectoria física; se
sólo tienen una existencia abstracta.
No hay espacio ni tiempo: De nuevo, "a nivel microscópico no existen ni el espacio ni el tiempo
ni el continuo espaciotemporal". A nivel submicroscópico, el Principio de Incertidumbre de
15
Heisenberg convierte el espaciotiempo en una "espuma cuántica" aparentemente caótica,
poniendo en duda la conectividad del espacio y la ordinalidad del tiempo. Wheeler cita a Einstein
en clave kantiana: "El tiempo y el espacio son modos por
16
que pensamos, y no condiciones en las que vivimos", considerando estos modos como
derivables de una teoría propia de la realidad como funciones idealizadas de un continuo
idealizado: "No introduciremos el tiempo en ningún relato profundo de la existencia. Debemos
derivar el tiempo -y el tiempo sólo en la idealización del continuo- fuera de él. Lo mismo ocurre
con el espacio".18
El límite de un límite es cero: En esencia, esta noción intuitiva de la topología algebraica dice
que las estructuras cerradas incorporan un cierto tipo de simetría "autocancelativa". Esto puede
ilustrarse en tres dimensiones mediante un tetraedro, cuyo "límite" simplicial incorpora sus cuatro
caras triangulares equiláteras. Para encontrar el límite de esta frontera, uno mediría las aristas
orientadas en el sentido de las agujas del reloj o en sentido contrario alrededor de cada cara,
midiendo así cada arista del tetraedro dos veces en direcciones opuestas. Dado que la suma de
las mediciones ahora se cancela a 0 en cada arista, el límite del límite del tetraedro es cero. Esta
propiedad resulta tener amplias aplicaciones en física, particularmente en la teoría de campos,
en lo que se refiere al "agarre" mutuo de la materia sobre el espacio y del espacio sobre la
materia (o de forma menos colorista, la relación del espacio y la materia). En opinión de Wheeler,
su ubicuidad "inspira la esperanza de que algún día completaremos las matemáticas de la física
y derivaremos todo de la nada, toda la ley de la no ley".19 Así, está estrechamente relacionada
con la ley sin ley y la llamada creación ex nihilo.
Diagrama 4: 1a: El límite de un segmento de línea unidimensional dirigida consiste en sus puntos terminales de
dimensión 0, que separan la línea de su complemento (el espacio que rodea a la línea). El punto inicial
representa la "deuda" necesaria para iniciar la línea y, por tanto, se le da un valor de -1, mientras que el punto
terminal representa la "recompensa" por completar la línea y se le da un valor de +1. Cuando los puntos inicial y
terminal de la recta se identifican como indica la flecha curva, el resultado es una recta cerrada que limita un
disco plano (1b). Como ahora los puntos extremos coinciden, suman 0 y ya no separan la recta de su
complemento; así, el límite 0-dimensional del límite 1-dimensional del disco 2-dimensional es 0. 2a: Un área
triangular puede descomponerse en 4 áreas triangulares más pequeñas. Introduciendo una orientación uniforme
(en este caso, en el sentido de las agujas del reloj) a las áreas (flechas rojas) se imparte la misma orientación al
perímetro exterior (flechas azules exteriores), recreando la situación de 1b (obsérvese que las flechas azules
junto a cada arista interior apuntan en direcciones opuestas y, por tanto, se anulan). De nuevo, los puntos inicial y
terminal del perímetro coinciden y se cancelan a 0 independientemente de donde se encuentren. Cuando los
segmentos adyacentes del perímetro se identifican como indican las flechas exteriores, el triángulo se pliega en
un tetraedro (2b). Sus caras forman una frontera bidimensional cerrada que separa su interior tridimensional de
su exterior, mientras que sus aristas forman una frontera unidimensional cerrada que separa sus caras entre sí.
Pero ahora las flechas azules se anulan en cada arista, y el límite unidimensional del límite bidimensional del
tetraedro es 0. Así que tanto para el disco 2D como para el tetraedro 3D, el límite del límite es 0. Aunque los
físicos suelen utilizar esta regla para explicar la conservación de la energía-momento (o como Wheeler la llama,
"momenergía"20), puede interpretarse de forma más general con respecto a la información y la restricción, o el
estado y la sintaxis. Es decir, el límite es análogo a una restricción que separa un atributo interior que satisface la
restricción de un atributo exterior complementario, creando así una distinción informacional.
17
eventos de medición en los que los objetos intercambian información, uno de los cuales, o
ambos, "formulan una pregunta" y uno de los cuales, o ambos, "formulan una respuesta".
18
que "dan una respuesta". La pregunta y la respuesta, el estímulo y la observación de un
acontecimiento, no pueden separarse en el plano ontológico, y no pueden sustraerse a la
influencia del entorno. En la raíz de este criterio se encuentran la incertidumbre cuántica y la
complementariedad, piedras angulares de la mecánica cuántica.
"Conciencia": Wheeler subraya la dificultad de establecer una distinción general entre la forma
de procesamiento de la información característica de los seres humanos, y la característica de
diversos sistemas y dispositivos complejos que pueden o no ser "conscientes". "La línea entre lo
inconsciente y lo consciente empieza a difuminarse...", afirma; "Puede que algún día tengamos
que ampliar el alcance de lo que entendemos por un 'quién'". El término quién, sugiere, es
demasiado específico para el hombre, la vida y la conciencia; sus connotaciones antrópicas son
anticopernicanas, mientras que los conceptos de vida y conciencia están sujetos a revisión a
medida que avanza la ciencia. "Parecería más razonable", sugiere, "descartar por el momento
los matices semánticos de 'quién' y explorar y explotar las ideas que se pueden extraer de las
frases 'comunicación' y 'comunicación empleada para establecer significado'".21
Más es diferente: el potencial de complejidad aumenta con la cardinalidad; con un gran número
de elementos viene la variedad combinatoria y el potencial para el tipo de estructura lógica
multinivel que tipifica tanto a los organismos biológicos como a los ordenadores modernos. Éste
es un precepto fundamental de la teoría de la complejidad. Wheeler plantea una pregunta:
"¿Comprenderemos algún día el tiempo y el espacio y todas las demás características que
distinguen a la física -y a la propia existencia- como los órganos autogenerados de un sistema
de información autosintetizado?".22
Juntos, estos eslóganes, preguntas, precauciones y pistas se suman a la petición de una nueva
teoría de la realidad, un modelo conceptual unificado para nuestros pensamientos y
observaciones. ¿Cuántos de los modelos actuales responden a esta llamada? La respuesta, por
supuesto, es "casi ninguno". Aunque algunos de ellos parecen abordar una o dos de las
cuestiones y cumplir uno o dos de los criterios, ninguno se acerca a abordarlas y cumplirlas
todas. Lo que cada modelo se ha visto obligado a ceder para cumplir un pequeño subconjunto
de criterios le ha costado muy caro a la hora de cumplir los demás. Así pues, tenemos tesis y
antítesis en forma de física clásica y modelos cuánticos discretos, pero como no se conoce en
toda su profundidad la relación entre ambos, no hay síntesis. Prácticamente todo el mundo
parece reconocer que las ideas de Wheeler son correctas, pero las relaciones de orden superior
necesarias para unirlo todo en una gran imagen han resultado difíciles de alcanzar. La dificultad
lógica de responder a todas las preguntas y cumplir todos los criterios a la vez, en paralelo,
utilizando conceptos integrados y lógicamente manejables, ha sido sencillamente prohibitiva.
19
Algunos principios adicionales
Aunque las ideas sobre la base ideal y/o perceptiva de la realidad se remontan a milenios atrás,
podemos empezar por algunos de sus defensores más recientes en aras de la continuidad. En
primer lugar, Descartes postuló que la realidad es mental en el sentido del racionalismo, pero
contradijo su propia tesis al introducir el dualismo mente-cuerpo, la noción de que mente y
materia están irreductiblemente separadas. El empirista Berkeley afirmó entonces que la
realidad es de naturaleza perceptiva, una especie de intersección de mente y materia. Esto
puede comprobarse sustrayendo mentalmente la percepción de la propia concepción de la
realidad; lo que queda es pura cognición subjetiva, pero sin ninguna molienda objetiva para el
molino perceptivo. (Aunque los intentos de sustraer cognitivamente la cognición de la realidad
son mucho más comunes, son un poco como intentar demostrar que una esponja no está
intrínsecamente mojada mientras se la sumerge en agua, y nunca pueden tener éxito por parte
de las entidades cognitivas). Hume intentó entonces eliminar por completo la cognición y la
causalidad, afirmando que tanto la mente como la materia son inherentes a la percepción y no
existen separadas de ella ni entre sí.
En respuesta a Berkeley y Hume, Kant afirmó que la cognición no primada que queda cuando se
sustrae el contenido perceptivo tiene una estructura intrínseca que existe con anterioridad al
contenido; comprende las categorías a priori de la realidad perceptiva o "fenoménica".24
Desgraciadamente, al sustraer la percepción según las reglas kantianas se obtiene algo más
que cognición sin imprimación; también se obtienen noumena, objetos absolutos o "cosas-en-
sí". Por un lado, el resultado es un isomorfismo perceptivo entre la mente y la realidad
fenoménica; por otro, se abre un abismo al otro lado del cual se asienta una realidad nouménica
incognoscible pero fundamental, que Kant evidentemente consideraba la última palabra en la
teoría (subteológica) de la realidad.
Sin embargo, el abismo de Kant es tan profundo y amplio, y prohíbe tan completamente
cualquier isomorfismo mente-realidad, que excluye la eficacia causal y, para el caso, cualquier
otro principio comprensible de correspondencia. Esto implica que los noúmenos son tanto
racional como empíricamente irrelevantes para la realidad cognitiva y perceptiva, y por tanto que
pueden ser eliminados con seguridad de la teoría de la realidad. Sea lo que sea lo que Kant
tenía en mente cuando introdujo el concepto de noúmeno, su definición equivale esencialmente
a "concepto inconcebible" y es, por tanto, un oxímoron. Sea lo que sea lo que realmente quiso
decir, debemos basarnos en algo distinto de la metafísica kantiana para encontrarlo.25
Hasta ahora, hemos conseguido reducir la realidad a la realidad fenoménica estudiada por la
ciencia, una combinación de contenido perceptivo y principios racionales de cognición. Un
científico emplea métodos empíricos para hacer observaciones concretas, aplica relaciones
cognitivas generales de la lógica y las matemáticas para explicarlas, y sale tratando la realidad
como una mezcla de percepción y cognición. Pero este tratamiento carece de cualquier cosa
parecida a una justificación explícita.
Cuando un conjunto de observaciones se explica con un probable conjunto de ecuaciones
20
interpretadas, la adherencia entre el explanandum y la explicación bien podría estar
proporcionada por cemento de caucho. Es decir, las explicaciones e interpretaciones científicas
pegan las observaciones y las ecuaciones de una forma muy poco comprensible. A menudo
funciona a las mil maravillas... pero ¿por qué? Uno de los principales objetivos de la teoría de la
realidad es responder a esta pregunta.
21
Lo primero que hay que señalar sobre esta cuestión es que implica el proceso de atribución, y
que las reglas de atribución se establecen por etapas en la lógica matemática. La primera etapa
se denomina lógica sentencial y contiene las reglas para atribuir los atributos verdadero o falso,
que denotan respectivamente inclusión o no inclusión en sistemas cognitivo-perceptuales
arbitrarios, a relaciones hipotéticas en las que los predicados están unidos por los functores
lógicos no, y, o, implica, y si y sólo si. La lógica sentencial define estos functores como funciones
de verdad que asignan valores de verdad a tales expresiones independientemente del contenido
(pero no de los valores de verdad) de sus predicados, efectuando así una definición circular de
functores sobre valores de verdad y de valores de verdad sobre functores. La siguiente etapa de
la atribución, la lógica de predicados, atribuye propiedades específicas a los objetos mediante
cuantificadores. Y la última etapa, la teoría de modelos, comprende las reglas para atribuir
relaciones complejas de predicados a relaciones complejas de objetos, es decir, teorías a
universos. Además, la forma de atribución denominada definición se explica en una rama de la
lógica centrada en la teoría denominada teorías formalizadas, y la mecánica de la atribución
funcional se trata en la teoría de la recursividad.
En lógica sentencial, una tautología es una expresión de variables sentenciales relacionadas con
un functor que siempre es verdadera, independientemente de los valores de verdad asignados a
sus propias variables sentenciales. Una tautología tiene tres propiedades clave: es
universalmente (sintácticamente) verdadera, es por tanto autorreferencial (verdadera incluso de
sí misma y por tanto cerrada bajo autocomposición recursiva), y sus implicaciones permanecen
consistentes bajo operaciones inferenciales que preserven estas propiedades. Es decir, toda
tautología es una circularidad autoconsistente de alcance universal, que posee validez en virtud
del cierre bajo la autocomposición, la comprensividad (no exclusión de la verdad) y la
consistencia (ausencia de paradoja irresoluble). Pero las tautologías no son meramente
consistentes en sí mismas; son mutuamente consistentes bajo composición mutua, haciendo de
la lógica sentencial tanto una "circularidad autoconsistente de alcance universal" como
cualquiera de sus tautologías. Así, la lógica sentencial incorpora dos niveles de tautología, uno
que se aplica a las expresiones y otro que se aplica a sus sistemas teóricos. A continuación, la
lógica de predicados amplía el concepto de tautología para abarcar los actos específicos de
atribución representados por variables sentenciales (antes anónimas), y la teoría de modelos
pasa a abarcar actos de atribución más complejos que implican relaciones más complejas.
La teoría de la realidad trata del estadio de la atribución en el que dos predicados análogos a
verdadero y falso, a saber, real e irreal, se atribuyen a diversos enunciados sobre el universo
real. En este sentido, está estrechamente relacionada con la lógica sentencial. En concreto, la
lógica sentencial tiene cuatro propiedades principales que debe emular la teoría de la realidad.
La primera es la verdad absoluta; como definición formal de la verdad, es verdadera por
definición. Las otras propiedades son la clausura, la exhaustividad y la coherencia. Es decir, la
lógica se basa totalmente en la cognición y la percepción y se define estrictamente dentro de
sus límites; se aplica a todo lo que puede percibirse o concebirse de forma coherente; y es
coherente por su propia naturaleza, ya que está diseñada de forma que excluye la incoherencia.
Es la base de las matemáticas, ya que es el medio por el que se enuncian, prueban o refutan las
proposiciones, y es el núcleo de la ciencia, ya que garantiza la integridad de la metodología
racional y empírica. Incluso las lógicas denominadas "no estándar", como la modal, la difusa y la
multivaluada, deben expresarse en términos de la lógica fundamental de dos valores para que
tengan sentido. En resumen, la lógica de dos valores es algo sin lo cual la realidad no podría
existir. Si se eliminara, no podrían distinguirse lo verdadero y lo falso, lo real y lo irreal, ni la
existencia y la no existencia, y el más simple acto de percepción o cognición sería totalmente
imposible.
Hasta ahora, se ha dado por sentado que la teoría de la realidad puede buscarse por los
mismos medios que cualquier otra teoría científica. Pero esto no es del todo cierto, ya que
mientras que la ciencia utiliza el equivalente epistemológico de un pegamento mágico para unir
sus teorías a sus observaciones, la teoría de la realidad debe dar una receta para el pegamento
y justificar los medios de aplicación. Es decir, la teoría de la realidad debe describir la realidad a
un nivel que justifique la ciencia y, por tanto, ocupa un nivel de explicación más profundo que la
propia ciencia.
22
¿Significa esto que la teoría de la realidad es matemática? Sí, pero dado que las matemáticas
deben justificarse junto con la ciencia, metamatemática sería quizás una mejor descripción... y al
fin y al cabo, esto se reduce a lógica pura y simple. De ello se deduce que la teoría de la
realidad debe adoptar la forma de una lógica ampliada... de hecho, una "forma límite" de lógica
en la que la relación entre teoría y universo, hasta ahora fuente inagotable de ambigüedad
teórico-modelo destructiva,
23
se reduce por fin a la forma mónica (de aspecto dual), cortocircuitando la paradoja del dualismo
cartesiano y eliminando la brecha epistemológica entre mente y materia, teoría y universo.
Por ejemplo, tomemos la tautología sentencial "X v ~X" (X O NO-X). Aplicada a la percepción,
significa que cuando se ve u observa algo, no se ve conjuntamente con su ausencia; si así fuera,
coincidirían dos percepciones contradictorias, lo que daría lugar a una "escisión" de las
realidades perceptivas. En efecto, o bien la conciencia del perceptor se escindiría en dos
realidades cognitivas separadas en un caso de disociación reactiva en cadena, o bien el propio
perceptor se escindiría físicamente junto con la realidad física. Cuando "X v ~X" se compone con
otras tautologías (o con ella misma) por sustitución, lo que está en juego es exactamente lo
mismo; cualquier violación de la tautología compuesta escindiría la realidad perceptiva y
cognitiva con consecuencias desastrosas para su integridad.28
24
Después de su carácter tautológico, lo primero que hay que señalar de la lógica sentencial en el
contexto de la teoría de la realidad es que, en contra del espíritu con el que se fundó -al fin y al
cabo, representa las reglas de los procesos mentales de cognición y percepción29 de cognición y
percepción, lo que parecería dotarla de un carácter mental desde el principio- tiene una
inadecuación funcional básica: parece requerir una lógica externa.
25
lógico para leerla, comprenderla y aplicarla mentalmente. Por otro lado, la naturaleza (o la
realidad cognitivo-perceptiva) no requiere un lógico externo para aplicar las reglas de la lógica.
Por lo tanto, los principios de la teoría de la realidad propuestos para preservar la tautología
deberían devolver la mente a la mezcla de una forma explícita y teóricamente manejable,
dotando efectivamente a la lógica de "capacidad de autoprocesamiento".
Después de todo, esto es exactamente lo que posee en su manifestación natural, la realidad en
general, y es una dimensión esencial de la propiedad de cierre sin la cual la verdad es
insostenible. Es decir, la realidad debe ser capaz de reconocerse a sí misma e impartir esta
capacidad a sus componentes como condición de su existencia e interacción.
Una vez explicadas las principales cuestiones técnicas de la teoría de la realidad, podemos ir al
grano: la forma de construir una teoría de la realidad consiste en identificar las propiedades que
debe poseer incondicionalmente para existir, y luego hacer que la teoría exista definiéndola
como poseedora de esas propiedades sin introducir propiedades meramente contingentes que,
si se toman como generales, podrían perjudicar su relación descriptiva con el universo real
(éstas pueden venir después y, naturalmente, estarán sujetas a confirmación empírica). En otras
palabras, los medios por los que se construye la teoría deben ser racionales y tautológicos,
mientras que aquellos por los que se refina posteriormente pueden ser empíricos. Puesto que
queremos que nuestra teoría sea lo suficientemente inclusiva, exclusiva y coherente como para
poder describir la realidad, estas propiedades incluirán sin duda la exhaustividad (menos
minuciosa pero también menos indecidible que la completitud), la clausura y la coherencia. A
estas propiedades, las "3 C", asignaremos tres principios que son básicamente tautológicos en
su forma; de ese modo, al unirlos a la teoría de la realidad basada en la lógica se preservará la
propiedad de tautología de la lógica, excluyendo racionalmente la incertidumbre por los mismos
medios que la lógica misma. Una teoría de la realidad construida de este modo se denomina
supertautología.
Como nuestros tres principios corresponden a las 3 C, y como todos empiezan por la letra M,
podríamos llamarlos también las "3 M": M=R, MAP y MU, que significan respectivamente el
Principio Mente Igual a Realidad, el Principio de Autología Metafísica y el Principio de Unidad
Múltiplex. El principio M=R, una propiedad teórica tautológica que disuelve la distinción entre
teoría y universo y, por tanto, identifica el universo real como una "teoría autorreificadora", hace
que la sintaxis de esta teoría sea completa al garantizar que nada que pueda reconocerse
cognitiva o perceptivamente como parte de la realidad quede excluido por falta de sintaxis. MAP
hace tautológicamente que esta sintaxis sea cerrada o autocontenida en los sentidos definitivo,
descriptivo e interpretativo, y en conjunción con M=R, hace que el universo sea perfectamente
autocontenido. Y MU hace tautológicamente que esta sintaxis, y el complejo teoría-universo que
describe, sean lo suficientemente coherentes como para garantizar su propia coherencia (así, la
"C" correspondiente a MU se divide en realidad en dos C, consistencia y coherencia, y tenemos
cuatro en total). A cada uno de estos principios podemos añadir los corolarios que se
presenten.30
Puesto que a todo teórico de la realidad le corresponde utilizar propiedades de la realidad para
explicar la realidad, y estas propiedades se definen recursivamente, a veces nos referiremos
implícita o explícitamente a varias propiedades en las descripciones de otras propiedades. Esto
impide una serie ordenada de definiciones acumulativas, que en cualquier caso sólo es posible
dando por sentado el contenido y los medios de la teorización (por desgracia, no se puede dar
nada por sentado en la teoría de la realidad). Como veremos más adelante, el carácter recursivo
de la CTMU es inevitable. En segundo lugar, la CTMU se desarrolla "hacia atrás" con respecto a
las teorías deductivas habituales de la ciencia y las matemáticas, eliminando primero las
restricciones y sólo después utilizando los resultados para deducir hechos sobre el contenido.
La mayoría de las teorías comienzan con axiomas, hipótesis y reglas de inferencia, extraen
implicaciones, las comprueban lógica o empíricamente y luego añaden o revisan axiomas,
teoremas o hipótesis. La CTMU hace lo contrario, elimina supuestos y "reconstruye la realidad"
sin añadir ningún supuesto.
Los siguientes principios se presentan en tres etapas. La primera etapa incluye el Principio de
Realidad, el Principio de Reducibilidad Lingüística y el Principio de Sindifeonesis, que pueden
26
considerarse preliminares a MAP, M=R y MU respectivamente (el orden de presentación puede
diferir ligeramente del que acabamos de exponer). La segunda etapa consiste en MAP, M=R y
MU propiamente dichos, mientras que la tercera consiste en varios principios auxiliares que
pueden considerarse sus consecuencias.
27
El principio de realidad
La realidad, es decir, el universo real, contiene todo y sólo lo que es real. El concepto de
realidad es analíticamente autocontenido; si hubiera algo fuera de la realidad que fuera lo
suficientemente real como para afectar o influir en la realidad, estaría dentro de la realidad, y
esta contradicción invalida cualquier suposición de una realidad externa (hasta la relevancia
observacional o teórica).31
Diagrama 5
Cabe señalar que toda definición equivale a una teoría microscópica de la cosa definida. El
Principio de Realidad, que puede considerarse como una definición general de la realidad, es
un ejemplo de ello; puede considerarse como la semilla de una teoría de la realidad que
hemos empezado a construir. Al definir la realidad como autocontenida, esta "microteoría" se
dota a sí misma de un tipo de cierre simple; no recurre a nada fuera del definiendum en el
curso de su definición, y efectivamente prohíbe que cualquier futura extensión teórica de esta
definición lo haga tampoco (esto se hace explícito en un principio relacionado, el MAP).
Pero ahora volvamos a la cola. Hasta ahora, hemos aprendido que la realidad es
autocontenida; en todas partes es igual a sí misma. ¿Qué ocurre con todas sus distinciones
internas?
Syndiffeonesis
La realidad es una relación, y toda relación es una relación sindifónica que exhibe sindifeonesis
o "diferencia-en-semejanza". Por tanto, la realidad es una relación sindifónica. La sindifeonesis
28
implica que cualquier afirmación en el sentido de que dos cosas son diferentes implica que son
reductivamente iguales;
29
si su diferencia es real, entonces ambas se reducen a una realidad común y son en esa medida
similares. La sindifeonesis, el más general de todos los principios reductores, constituye la base
de una nueva visión de la estructura relacional de la realidad.
Toda relación sindifeónica tiene fases sinestésica y difeónica que exhiben respectivamente
sinéresis y difeonesis (igualdad y diferencia, o distributividad y localidad paramétrica), y muestra
dos formas de contención, topológica y descriptiva. El medio está asociado a la fase sinética,
mientras que la relación de diferencia está asociada a la fase difeónica (debido a que las reglas
de estado y transformación del medio están distribuidas sobre él, el medio es homogéneo,
poseyendo intrínsecamente sólo extensión relativa en virtud de las relaciones de diferencia que
contiene). Dado que los relandos difeónicos se relacionan con su medio expresivo común y su
sintaxis distributiva de un modo que combina aspectos de unión e intersección, la operación que
produce el
medio de los relandos se denomina unisección (). El medio sinético representa difeónico
potencial del que la relación de diferencia es una actualización.
Diagrama 6: Este diagrama sindifónico genérico ilustra un hecho simple: cualquier relación de diferencia
requiere un medio de soporte con extensión en el parámetro diferencial. Como se ilustra, el medio distribuye
sobre ambos la relación lineal "X difiere de Y" y sus relandos (entidades relacionadas) X e Y, otorgándoles un
común
propiedad de "parentesco" que equivale a "inclusión en el medio relacional XY", donde XY es el unisecto o
"producto sintáctico" de X e Y. Este atributo común invalida cualquier afirmación en el sentido de que la diferencia
entre los relandos es "absoluta" o "irreductible"; el mero hecho de que la diferencia pueda expresarse lingüística o
geométricamente implica que sólo es parcial y que ambos relandos son manifestaciones de un mismo medio
ontológico. Donde X e Y representan partes o aspectos arbitrarios de la relación de diferencia llamada realidad,
este diagrama demuestra gráficamente que la realidad consiste en última instancia en un medio ontológico
unitario. En consecuencia, la teoría de la realidad debe ser una teoría mónica que reduzca la realidad a este
medio (esta idea se desarrolla con más detalle en el Principio del Monismo Infocognitivo).
Obsérvese que cualquier inhomogeneidad sintáctica (por oposición a informativa) en el medio común es en sí
misma una relación de diferencia y, por tanto, invita a recrear el diagrama. Del mismo modo, cualquier
inhomogeneidad en el medio común ilustrado por el diagrama recreado invitaría a otra recreación del diagrama, y
así sucesivamente. Cualquier regresión sindefónica de este tipo debe terminar, ya que si no lo hiciera, no existiría
una sintaxis estable y, por tanto, ninguna "relación" lo suficientemente estable como para ser percibida o
concebida. La estabilidad informativa de la realidad perceptiva demuestra que la realidad tiene una sintaxis
estable.
El diagrama anterior podría expresarse de forma compacta como sigue: syn(XY):diff(X,Y). Por
ejemplo, syn(nomA X nomB X) : diff(nomA X, nomB X) significa que donde nomA X, nomB X son
conjuntos de leyes obedecidas por el sistema X en diferentes tiempos, localizaciones o marcos
30
de referencia A y B dentro de la
31
sistema X, existe un conjunto más básico de leyes (nomA X nomB X) en términos de las
cuales se puede expresar esta diferencia. Esto demuestra que en algún nivel, la covarianza
general debe mantenerse.
Esto no es simplemente cierto "hasta isomorfismo con X"; incluso si se puede distinguir más de
un conjunto válido de leyes, cualquiera de las cuales podría estar activa en cualquier lugar dado
(A,B,...) dentro de X [XA "nom1 , XB "nom2 , ..., donde los índices numéricos denotan distinción
nomológica], cualquier distinguible
diferencia entre estos conjuntos también requiere una sintaxis común. La coherencia informativa es,
pues, una
sine qua non de la existencia reconocible; cualquier sistema en el que fallara simplemente se
desintegraría por falta de algo que lo mantuviera unido.
Hasta ahora, sabemos que la realidad es una relación sindifónica autocontenida. También
tenemos acceso a una especie de diagrama instructivo que podemos utilizar para ilustrar
algunos de los principios que siguen. Veamos si podemos aprender algo más sobre el tipo de
relación sindifónica autocontenida que es la realidad.
La realidad es una forma autónoma de lenguaje. Esto es cierto al menos por dos razones. En
primer lugar, aunque en algunos aspectos es material y concreta, la realidad se ajusta a la
definición algebraica de un lenguaje. Es decir, incorpora
(3) una sintaxis compuesta por (a) reglas lógicas y geométricas de estructura, y (b) una
gramática generativa inductivo-deductiva identificable con las leyes de transición de
estados.
33
el lenguaje es fundamental. El hecho de que la mayoría de tales teorías, por ejemplo, las teorías
de la física, señalen el estatus fundamental de algo "objetivo" e "independiente del lenguaje",
por ejemplo, la materia y/o la energía, es bastante irrelevante, ya que el propio acto de señalar
invoca un isomorfismo entre la teoría y la realidad objetiva... un isomorfismo que está sujeto al
Principio de Realidad, y que no podría existir a menos que la realidad compartiera la estructura
lingüística de la propia teoría.
Tal vez el significado de este principio pueda expresarse más concisamente mediante una
generalización del aforismo "de lo que no se puede hablar, hay que callar": de lo que no se
puede describir lingüísticamente, no se puede percibir ni concebir. Así pues, para los fines
observacionales y teóricos de la ciencia y la teoría de la realidad, lo que no es isomorfo al
lenguaje está fuera de toda consideración como componente de la realidad.
Diagrama 7: En este diagrama sindifónico, la afirmación "El lenguaje difiere de la realidad" se extiende a lo largo
de un segmento de línea que representa la supuesta diferencia entre los relandos. Igual que en el diagrama
genérico anterior,
ambos relandos poseen el atributo "inclusión en el medio sintáctico relacional (Realidad Lingüística)". Dado que
son ambas manifestaciones del mismo medio subyacente, su diferencia no puede ser absoluta; en un
nivel fundamental, la realidad y el lenguaje comparten aspectos comunes. Esto es coherente con la naturaleza
de la relación de "diferencia", que en realidad se supone que representa un isomorfismo semántico y teórico
de modelos.
Como ya hemos visto, el Principio de Realidad dice que la realidad contiene todo y sólo lo que
es real. Tal como se define en esta afirmación, el predicado realidad es ante todo una
construcción lingüística que se ajusta a la estructura sintáctica, donde la sintaxis consiste en las
reglas mediante las cuales se construyen e interpretan los predicados. En este sentido, la
realidad equivale a una especie de teoría cuyos axiomas y reglas de inferencia están
implícitamente proporcionados por el componente lógico de la sintaxis conceptual en la que se
expresa. El Principio de Reducibilidad Lingüística se limita a aclarar la cuestión de si la realidad
es un predicado lingüístico o el contenido objetivo de tal predicado, afirmando que es ambas
cosas. Así, cuando el predicado de realidad es analítica (o sintácticamente) autocontenido, la
realidad es autocontenida. Esto puede expresarse de la siguiente manera: en el nivel de la
sintaxis cognitivo-perceptiva, la realidad es igual a la teoría de la realidad. Cuando la teoría y el
universo convergen, la navaja de Occam y los principios físicos de la economía se convierten en
tautologías.
35
El Principio de Reducibilidad Lingüística proporciona un mandato para añadir una forma
avanzada de teoría del lenguaje al arsenal matemático de la teoría de la realidad. Los beneficios
de esta adición para la teoría de la realidad son incalculables. En la teoría física convencional,
las entidades fundamentales son las partículas puntuales, las ondas y, más recientemente, las
cuerdas; cada clase de objeto tiene sus problemas y paradojas. En la CTMU, los objetos
fundamentales son operadores sintácticos (unidades de información autotransductora o
infocognición) que no sólo son capaces de emular todos estos objetos y más, sino de contener
las estructuras sintácticas a las que inevitablemente deben ajustarse y resolver sus paradojas
características en la negociación. Puesto que el significado equivale a la conectividad semántica
y, por tanto, es lingüístico en todos los sentidos del término, el cambio a una perspectiva
lingüística es indispensable para la teleología o cualquier otra forma de significado.
Ahora sabemos que la realidad es una relación sindifónica lingüística autocontenida, aunque
todavía parece que la conozcamos desde un punto de vista externo de una forma bastante
inespecífica. ¿Adónde deberíamos ir ahora en busca de pistas? Llegados a este punto, nos
vendría muy bien un MAPA.
Todas las relaciones, mapeos y funciones relevantes para la realidad en un sentido efectivo
generalizado, ya sean descriptivas, definitivas, composicionales, atributivas, nomológicas o
interpretativas, se generan, definen y parametrizan dentro de la realidad misma. En otras
palabras, la realidad comprende un "múltiple descriptivo cerrado" del que no se omite ningún
predicado esencial y que, por tanto, no contiene ninguna laguna crítica que deje sin explicar
algún aspecto esencial de la estructura. Cualquier laguna de este tipo implicaría la no clausura.
Diagrama 8
37
El MAP exige una explicación cerrada porque sin ella es imposible distinguir. De nuevo, esto se
reduce a la cuestión de la estabilidad sintáctica.33 Para decirlo de la forma más sencilla posible,
la realidad debe poseer en última instancia una distinción estable a nivel de objeto de 2 valores
entre lo que es y lo que no es, manteniendo los límites informativos necesarios entre objetos,
atributos y acontecimientos. La existencia de fronteras informativas cerradas dentro de un
sistema sólo es posible en última instancia en virtud del cierre sistémico bajo composición
dualista (explanans- explanandum), que es justo como se efectúa en la lógica sentencial.
Como ejemplo de la naturaleza tautológica del MAP, consideremos una hipotética escala
externa de distancia o duración en términos de la cual pueda definirse el tamaño o la duración
absolutos del universo o de sus contenidos. Debido a la autocontención analítica de la realidad,
las funciones y definiciones que comprenden su múltiple autodescriptivo sólo se refieren unas a
otras; todo lo que no esté implicado en su red sintáctica es irrelevante para la estructura e
internamente irreconocible, mientras que todo lo que es relevante ya es un ingrediente implícito
de la red y no necesita ser importado de fuera. Esto implica que si la escala propuesta es
relevante, entonces no es realmente externa a la realidad; de hecho, la realidad ya la contiene
como implicación de su estructura intrínseca.
En otras palabras, dado que la realidad se define sobre la base de la relevancia mutua de sus
partes y aspectos esenciales, externo e irrelevante son sinónimos; si algo es externo a la
realidad, entonces no está incluido en la sintaxis de la realidad y, por tanto, es internamente
irreconocible. De ello se deduce que, con respecto a ese nivel de realidad definido sobre la base
de la relevancia y el reconocimiento, no existe una escala "real pero externa" y, por tanto, que el
universo es externamente indefinido con respecto a todas las medidas, incluidos el tamaño y la
duración globales. Si una escala absoluta fuera alguna vez internamente reconocible como una
necesidad ontológica, entonces esto implicaría simplemente la existencia de un nivel más
profundo de la realidad al que la escala es intrínseca y por el que ella misma se explica
intrínsecamente como una función relativa de otros ingredientes. Así, si la necesidad de una
escala absoluta llegara a ser reconocible dentro de la realidad -es decir, reconocible para la
realidad misma-, sería por definición relativa en el sentido de que podría definirse y explicarse en
términos de otros ingredientes de la realidad. En este sentido, la PRA es un "principio general de
relatividad".34
El criterio "sin lagunas" del MAPA no permite ningún agujero explicativo crítico que omita algún
aspecto esencial de la estructura. Lo que esto significa puede ilustrarse mejor mediante una
falacia recurrente: "La existencia del universo está dada y, por tanto, no necesita explicación".
La frase está dada está incompleta; tiene "cabos sueltos" ocultos que corresponden a aquello
por lo que la existencia está dada, los medios por los que está dada y la razón por la que está
dada. Si la fuente, los medios y la razón son reales, entonces están dentro de la realidad, y la
laguna explicativa sólo existe en la mente del que la afirma y no en la red autoexplicativa de la
propia realidad.
Por otra parte, omitiendo esta frase (se da) se obtiene algo así como "la existencia del universo
es inexplicable". Sin embargo, esto equivale a afirmar que el universo no tiene ninguna base o
medio identificable de existencia, ni siquiera él mismo... es decir, que no se puede definir
ninguna función explicativa sobre el explanandum, y que el universo tiene de alguna manera
prohibido servir como su propia fuente, medio o razón. Pero esto equivale a decir que el universo
sólo podría existir "por arte de magia", surgiendo del apeiron con una espontaneidad superior a
la que un auténtico mago podría sacar un conejo mágico de una chistera. Porque mientras que
los conejos mágicos pueden al menos originarse por magia asociada a magos que los sacan de
sombreros de copa a la brillante luz de la realidad, o que mágicamente se arrancan a sí mismos
de sus propios sombreros a sus propias realidades, al universo se le negaría cualquier base
ontológica o medio en absoluto... ni siquiera un arranque.
Porque preguntas como "¿por qué y cómo existe la realidad (dentro del dominio del potencial
existencial que sustenta la posibilidad de existencia)?" y "¿por qué existe esta realidad en lugar
de alguna otra realidad?"35 se dirigen a los niveles ontológicos o teleológicos de la estructura de
38
la realidad, y dado que estos niveles de la estructura son lógicamente significativos, deben tener
respuestas... incluso si esas respuestas están determinadas, como algunas de ellas, por el
propio criterio de cierre.
39
Ahora sabemos que la definición cerrada, de predicado único, del Principio de Realidad es en
realidad un colector descriptivo cerrado de definiciones vinculadas que, en principio, contiene los
medios de su propia composición, atribución, reconocimiento, procesamiento e interpretación.
Pero esto sigue siendo algo autómata. ¿Y la mente? Puesto que es a través de nuestra mente
como entendemos cualquier cosa, la comprensión seguirá siendo incompleta hasta que
entendamos mejor la relación entre la mente y la realidad. Así que, habiéndonos equipado con
un MAPA, ahora nos ocupamos de la correspondencia entre el MAPA y el terreno.
El principio M=R o Mente igual a Realidad afirma que la mente y la realidad son, en última
instancia, inseparables en la medida en que comparten reglas comunes de estructura y
procesamiento. La existencia de una relación de diferencia entre la mente y la realidad
presupone sindiféonicamente un medio relacional que tiene las características de ambas, y este
medio tiene prioridad lógica sobre la propia relación de diferencia.
Diagrama 9: Principio M=R (Mente = Realidad). En el diagrama sindifónico anterior, la mente se yuxtapone a la
realidad en un espacio delimitado por una caja. La línea que separa la mente de la realidad representa la
supuesta diferencia entre ambas, mientras que el interior de la caja representa su comparabilidad o "parentesco"
(o, más técnicamente, su uniformidad).
sintaxis diferenciadora o unisecta, denotada mediante el functor). La extensionalidad de la línea es sólo la de
la caja; sin la caja, no habría medio extensional que contuviera la línea, ni forma de expresar la
relación de diferencia asociada. Dado que la separación no puede existir sin un medio común que incorpore una
sintaxis diferenciadora que distribuya sobre ambos relandos de la relación de diferencia, la "separación absoluta"
de mente y realidad no tiene modelo... y sin modelo, la premisa del dualismo cartesiano mente-materia fracasa.
Esto indica que la realidad y la mente, la información y el procesador de información, deben considerarse en
última instancia como una sola cosa. Cualquier distinción entre ellas al estilo cartesiano debe ser estrictamente
matizada.
El principio M=R no es más que una versión lógica de lo que los filósofos empiristas señalaron
hace tiempo: experimentamos la realidad en forma de percepciones y datos sensoriales de los
que se induce la existencia e independencia de la mente y de la realidad externa objetiva.
Puesto que cualquier prueba en contrario sería necesariamente cognitiva, como lo son todas las
"pruebas", y puesto que el contenido de la cognición es cognitivo por incrustación, no puede
existir tal prueba; tal prueba socavaría su propio medio y, por tanto, se anularía a sí misma. Por
otro lado, el Principio de Realidad dice que la realidad es autocontenida con respecto al
reconocimiento y al control, y en la medida en que el reconocimiento y el control son "mentales"
(en el sentido de ser efectuados de acuerdo con la sintaxis cognitiva y perceptiva), también lo es
la realidad. El Principio M=R conlleva la comprensividad al definir todas nuestras percepciones,
junto con su infraestructura cognitivo-sintáctica a nivel sintáctico, como partes de la realidad
independientemente de la decidibilidad.36 Cuando se trata de M=R, es difícil resistirse a un
pequeño juego de palabras: M=R dice que en el nivel sintáctico de la cognición y la percepción,
"el MAPA es el terreno". Nótese que M=R va más allá del mero isomorfismo kantiano entre la
realidad fenoménica y las categorías del pensamiento y la percepción; dice que la sintaxis y su
40
contenido están recursivamente relacionados, y en conjunción con el Principio de Realidad, que
cualquier supuesto "contenido" no relacionado con las reglas de estructura y evolución de la
realidad
41
es irrelevante. (Aunque se trata de una observación trivial en la medida en que "sin relación" e
"irrelevante" son sinónimos, parece haber sido ampliamente ignorada por muchos que deberían
haberlo sabido).
La propiedad M=R ocupa el lugar que deja el Principio de Reducibilidad Lingüística al eliminar la
distinción entre teoría y universo. A su luz, la descripción teórica de la realidad por seres
humanos contenidos en la realidad equivale a que la realidad se describa a sí misma. (Teniendo
en cuenta que una teoría es una construcción mental, esto puede ilustrarse simplemente
sustituyendo Mente y Realidad en el diagrama anterior por Teoría y Universo, y Mente Realidad
por Teoría Universo). Esto hace que la teoría sea reflexiva y, por tanto, lo suficientemente
inclusiva por definición como para describir todo el universo, incluyendo lo que es racional,
abstracto y subjetivo, y lo que es empírico, concreto y objetivo. La disolución de esta distinción
puede considerarse una reducción.
Así pues, ahora sabemos que la realidad es algo más que una relación lingüística sindifónica
autocontenida que comprende un colector descriptivo cerrado de definiciones vinculadas que
contienen los medios de su propia configuración, composición, atribución, reconocimiento,
procesamiento e interpretación. También es una teoría de autoprocesamiento idéntica a su
universo.
En otras palabras, podemos caracterizar equivalentemente los contenidos del universo como
estando topológicamente "dentro" de él (inclusión topológica), o caracterizar el universo como
estando descriptivamente "dentro" de sus contenidos, ocupando sus sintaxis internas como
estado adquirido (inclusión descriptiva). El universo incluye genéricamente a sus contenidos
sirviéndoles de unisecto sintáctico, mientras que los contenidos contienen al universo en un
sentido más específico que implica historias de sucesos concretos que se "enredan" mediante la
interacción. Desde el primer punto de vista, la coherencia sintáctica del medio general refuerza
la coherencia mutua de los contenidos, mientras que desde el segundo punto de vista, las
sintaxis coherentes de sus contenidos contienen y reconocen y transforman el medio de forma
coherente. Así, el universo refuerza su propia coherencia mediante la doble autocontención.
42
Esquema 10: En el diagrama sindifónico [Esquema 6], se aprecia claramente la contención de los objetos por el
medio, pero no se aprecia la contención del medio por los objetos. Teniendo en cuenta que los términos sintaxis
y contenido son hasta cierto punto designaciones relativas, el nodo superior del Diagrama 10 corresponde al
medio global (unisecto sintáctico global o "metasintaxis" de la realidad), mientras que el nodo inferior corresponde
a los objetos que contiene (operadores sintácticos contenidos en el medio); cada uno es una unidad múltiplex. La
coherencia fluye de la sintaxis global al contenido local por medio de la contención topológica global, reforzando
así la unidad a través de diversos locales, y de vuelta a la sintaxis global en múltiples flujos entrelazados
generados por la transducción cruzada del contenido. La sintaxis se convierte en estado y el estado en sintaxis
(entendiendo por "sintaxis" una distribución "ectosintáctica" de operadores sintácticos). De este modo, el universo
sigue siendo coherente y consistente en el curso de la evolución.
Por cierto, no es necesario considerar a las MU como el garante último de la coherencia; ese
honor puede corresponder sin problemas a la estabilidad de la propia realidad perceptiva.
Sencillamente, la estabilidad sintáctica de la realidad anula todas y cada una de las objeciones
relativas a las limitaciones de los sistemas formales. MU se limita a describir cómo la realidad,
considerada como una teoría SCSPL reflexiva, alcanza una estabilidad intrínseca en el curso
de su evolución. Por lo tanto, no funciona como un algoritmo garantizado para terminar en
consistencia pero no en inconsistencia, y por lo tanto no está en conflicto con la indecidibilidad.
La estabilidad de la realidad afirma su consistencia con independencia de que una teoría menor
sea o no consistente.
MU sirve como concepto unificador para un complejo de ideas que tienen que ver con la
coherencia y la consistencia en el contexto teórico de la realidad, incluida la hología y varios
principios de dualidad de CTMU.
La hología, un análogo lógico de la holografía que caracteriza la relación más general entre la
realidad y sus contenidos, es una forma de autosimilaridad por la que la estructura general del
universo se distribuye por todas partes en su interior como sintaxis aceptante y transductora,
dando lugar a un medio sintáctico homogéneo. Es decir, dado que la realidad requiere una
43
sintaxis consistente en leyes generales de estructura y evolución, y no hay nada más que la
propia realidad para servir a este propósito, la realidad comprende su propia sintaxis
autodistribuida bajo MU (que caracteriza la relación global entre sintaxis y contenido).
44
La propia propiedad hológica está distribuida por la realidad. Es decir, el límite informativo de un
objeto coherente (operador sintáctico) está hológicamente multiplexado con respecto al estado
(atributo y valor) para definir el interior descriptivo del operador a medida que participa en el
autoprocesamiento global sin entrada. Esta multiplexación de posibilidades no es más que la
replicación de la estructura del límite sobre el interior del mismo en función del tiempo. Una vez
más, el operador no tiene en última instancia nada más en términos de lo cual expresar su
capacidad espaciotemporal.
La hología está implicada por MAP porque la realidad está cerrada bajo composición y
atribución; está implicada por M=R porque la realidad está compuesta de operadores sintácticos
con funcionalidad mental o cognitiva generalizada; y está implicada por sindifeonesis y MU
porque es una expresión de la relación entre el medio espaciotemporal global y sus contenidos.
Principios de dualidad
Una forma aún más sorprendente de dualidad se encuentra en la teoría de grafos, donde el grafo
dual de un grafo plano transforma caras en vértices y vértices en caras sin alterar su patrón
general de adyacencias. El límite de cada cara se sustituye por aristas transversales que
convergen en su vértice dual (y viceversa), y la relación de adyacencia se redefine en
consecuencia. Cuando las aristas reciben una interpretación temporal, pueden producirse
transformaciones interesantes; por ejemplo, las circulaciones a lo largo de los límites de las
caras se convierten en "giros de vértices", y el movimiento a lo largo de una arista puede
caracterizarse como una operación entre las caras duales de sus puntos extremos.
Así pues, los principios de dualidad se presentan en dos variedades comunes, una que
transpone relaciones espaciales y objetos, y otra que transpone objetos o relaciones espaciales
con mapeos, funciones, operaciones o procesos. La primera se denomina dualidad espacio-
objeto (o S-O, o S🡨🡪O); la segunda, dualidad tiempo-espacio.
(o T-S/O, o T🡨🡪S/O). En cualquier caso, la característica central es una transposición de elemento
y una relación (espacial o temporal) de elementos. Juntas, estas dualidades dan lugar al concepto
de trialidad, que representa la posibilidad universal de permutar coherentemente los atributos
tiempo, espacio y objeto con respecto a diversas estructuras. De aquí podemos extraer un
tercer tipo de dualidad: Dualidad ST-O. En este tipo de dualidad, asociada a algo llamado
dualidad conspansiva, los objetos pueden ser "dualizados" a transductores espaciotemporales,
y el universo físico "simulado" internamente por sus contenidos materiales.
Cuando los puntos pertenecen a conjuntos y las líneas son relaciones entre puntos, también se
da una forma de dualidad entre conjuntos y relaciones o atributos y, por tanto, entre teoría de
conjuntos y lógica. Cuando los conjuntos contienen sus elementos y los atributos describen
45
distributivamente sus argumentos, esto implica una relación dual entre la contención topológica
y la atribución descriptiva modelada mediante diagramas de Venn. Esencialmente, cualquier
relación de contención puede interpretarse de dos maneras: en términos de posición con
respecto a las líneas o superficies o hipersuperficies delimitadoras, como en el conjunto de
puntos
46
topología y sus refinamientos geométricos (⊃T ), o en términos de relaciones descriptivas de
distribución, como en la gramática diagramática veneciana de la sustitución lógica (⊃D ).37
Pero la relación entre la teoría de conjuntos y la lógica es aún más interesante, ya que cada una
de ellas tiene una afinidad representacional particular con una sola de estas operaciones. Es
decir, la teoría de conjuntos tiende a centrarse en los objetos (conjuntos y elementos), mientras
que la lógica tiende a centrarse en los atributos, o "restricciones de contorno" informativas que
deben satisfacer los objetos. Así, la teoría de conjuntos define en última instancia los conjuntos
en términos de los objetos que contienen, mientras que la lógica tiende a definirlos "desde fuera
hacia dentro" en las restricciones de los límites de intersección a los que se ajustan. La
diferencia radica en el functor univalente no (~), en el que se definen directa o indirectamente la
complementación y la intersección, pero no la unión.
Por ejemplo, mientras que es bastante fácil identificar un elemento o conjunto individual
nombrándolo constructivamente o "enumerándolo", por ejemplo, "X", identificar su complemento
a menudo requiere que su nombre se utilice como base de una restricción que pueda aplicarse
a todo un contexto finito o infinito en una operación atributiva, por ejemplo, "no-X". La relación
de dualidad entre los nombres
y las restricciones queda bien plasmado por las leyes de De Morgan, ~A∩~B=~(A∪B) y
~A∪~B=~(A∩B), que lo expresan permutando las operaciones objetivas y atributivas ∪ y ∩.
Dado que los estados se expresan topológicamente, mientras que las estructuras sintácticas de
sus operadores subyacentes se expresan descriptivamente, la dualidad atributiva se denomina a
veces dualidad estado-sintaxis. Como la información requiere una organización sintáctica,
equivale a una valoración de la sintaxis cognitiva/perceptiva; a la inversa, el reconocimiento
consiste en una restricción sustractiva del potencial informativo mediante una adquisición aditiva
de información. Así pues, la dualidad TD relaciona la información con el potencial informativo
delimitado por la sintaxis, y la percepción (adquisición de estados cognitivos) con la cognición.
En un diagrama de Venn, el contenido de los círculos refleja la estructura de sus límites; los
límites son los descriptores primarios. El interior de un círculo es simplemente una
"interiorización" o autodistribución de su "restricción de límites" sintáctica. Así, los círculos
anidados correspondientes a objetos idénticos muestran una forma descriptiva de contención
correspondiente a la estratificación sintáctica, con niveles subyacentes correspondientes a
coberturas sintácticas.
Dualidad constructiva-filtrativa
Cualquier conjunto que pueda construirse añadiendo elementos al espacio entre dos paréntesis
puede definirse por restricción en el conjunto de todos los conjuntos posibles. La restricción
implica la superposición de restricciones de tipo Venn, que son de naturaleza sustractiva; por
tanto, es como un proceso sustractivo de color que implica el apilamiento de filtros. Los
elementos, por otro lado, son aditivos, y el proceso de construcción de conjuntos es, por tanto,
47
aditivo; es como un proceso de color aditivo que implica la iluminación de los elementos de color
de los píxeles en un monitor de color. La dualidad CF afirma simplemente la equivalencia
general de estos dos tipos de procesos con respecto a la realidad lógico-geométrica.
48
La dualidad CF captura las ramificaciones temporales de la dualidad TD, relacionando
operaciones geométricas sobre conjuntos de puntos con operaciones lógicas sobre predicados.
Esencialmente, la dualidad CF dice que cualquier estado geométrico o transformación continua
es equivalente a una operación que implica la "filtración" mutua de potenciales de estado
hológicos que se cruzan. Los estados y los objetos, en lugar de construirse desde el nivel de
objeto hacia arriba, pueden considerarse refinamientos filtrativos de relaciones de orden
superior generales e internamente no especificadas.
La dualidad CF es necesaria para mostrar cómo un universo puede ser de "suma cero"; sin ella,
no hay forma de refinar los requisitos objetivos de los procesos constructivos "a partir de la
nada". En la cosmogonía CTMU, la "nada" se define informacionalmente como restricción cero o
libertad pura (telesis no ligada o UBT), y la aparente construcción del universo se explica como
una autorrestricción de este potencial. En un reino de potencial ontológico ilimitado, definir una
restricción no es tan sencillo como escribirla; dado que las restricciones actúan de forma
restrictiva sobre el contenido, restricción y contenido deben definirse simultáneamente en una
relación sintaxis-estado unificada.
Dualidad conspansiva
Este principio fue adumbrado hasta cierto punto por la siguiente cita irónica atribuida a Arthur
Eddington38 sobre el universo en expansión:
La visión surrealista de Eddington acompañaba una propuesta irónica según la cual la teoría del
universo en expansión podría ser sustituida por una teoría del "átomo en retroceso". Era, pues,
un poco exagerada en aras del humor. De hecho, Eddington no estaba lo suficientemente
interesado en la idea como para desarrollar sus implicaciones más allá de un nivel muy
rudimentario. Sin embargo, resulta que estaba bordeando los límites de un importante principio
de dualidad.
La expansión cósmica y el movimiento físico ordinario tienen algo en común: ambos son lo que
podríamos llamar ectomorfismos. En un ectomorfismo, algo es mapeado, generado o replicado
en algo externo a él. Sin embargo, el Principio de Realidad afirma que el universo es
analíticamente autocontenido, y el ectomorfismo es inconsistente con la autocontención.
Mediante el principio de dualidad conspansiva, el ectomorfismo está unido al endomorfismo,
según el cual las cosas se mapean, generan o replican dentro de sí mismas. Mediante el
endomorfismo conspansivo, los objetos sintácticos se mapean inyectivamente en sus propios
interiores hológicos desde sus propios límites sintácticos.
50
el diagrama corresponde a la dualización conspansiva, que convierte un entramado
espaciotemporal de líneas del mundo y acontecimientos en una serie estratificada de
diagramas de Venn.
Diagrama 11: En la ilustración anterior, una sección transversal espacial de un diagrama espaciotemporal (línea
azul) se gira hacia el espectador y se muestra a lo largo del eje temporal (rectángulo azul). El resultado es un
diagrama de Venn en el que los círculos representan objetos y sucesos, o relaciones interactivas (n>1) de
objetos. Es decir, cada círculo representa las "funciones de onda cuánticas entrelazadas" de los objetos que
interactuaron entre sí para generarlo. Los pequeños puntos en los centros de los círculos representan los
sucesos y objetos iniciales a partir de los cuales han surgido los círculos, mientras que los puntos gemelos donde
se solapan los círculos reflejan el hecho de que cualquier posible suceso nuevo, o interacción entre objetos
implicados en los sucesos antiguos, debe producirse por adquisición mutua en la intersección. El crecimiento
hacia el exterior (o, por dualidad conspansiva, la absorción mutua) de los círculos se denomina expansión
interior, mientras que el colapso de sus objetos en nuevos acontecimientos se denomina requantización. Los
propios círculos se denominan IED, abreviatura de dominios expansivos internos, y corresponden a pares de
operadores sintácticos interactivos implicados en sucesos perceptivos generalizados (nótese la "evacuación"
hológica y la absorción mutua de los operadores). El espaciotiempo puede ilustrarse en términos de una
estratificación de diagramas de Venn, cuyo contacto mutuo se denomina "superposición ampliada" (en el mundo
real, los diagramas de Venn son tridimensionales en lugar de planos, los círculos son esferas, y la
"estratificación" se define en consecuencia). La superposición ampliada distribuye "atemporalmente" los sucesos
antecedentes sobre los sucesos consecuentes, poniendo así el espaciotiempo en autocontacto temporalmente
ampliado. A la luz del Principio Telic (véase más adelante), este escenario implica una nueva interpretación de la
teoría cuántica, la suma sobre futuros. La suma sobre futuros implica una generalización atemporal del "proceso",
la recursividad télica, a través de la cual el universo efectúa sobre la marcha la maximización de un parámetro
global de autoselección, la utilidad generalizada.
En un diagrama de Venn, los círculos representan conjuntos a través de sus atributos definitivos.
Los atributos representados por los círculos son sinéticos (distribuidos sintácticamente y
homogéneos con respecto a las posibles diferencias de estado), y el atributo representado por
un círculo concreto es heredable uniformemente por los elementos del conjunto representado
por cualquier círculo que se encuentre en su interior. En el diagrama de Venn espaciotemporal
que acabamos de describir, las secciones transversales circulares del cono luminoso
corresponden a objetos y sucesos que se relacionan precisamente de esta manera. Dado que
los objetos a escala cuántica sólo existen cuando participan en sucesos observacionales,
incluidas sus "observaciones generalizadas" mutuas, se supone que sus líneas del mundo sólo
existen entre sucesos y, de hecho, se retrodicen sintácticamente, junto con el continuo, a partir
de los últimos sucesos en los que se sabe que han participado. Esto hace posible omitir por
completo las líneas del mundo específicas, sustituyéndolas por una serie de diagramas de Venn
en los que los círculos se expanden interiormente, se interpenetran y "colapsan en puntos" en
cada acontecimiento interactivo de observación generalizada. Este escenario es general y se
aplica incluso a objetos macroscópicos formados por muchas partículas de materia; la mayor
definición de las líneas del mundo de los objetos macroscópicos puede imputarse a una mayor
frecuencia de colapso debida a la densidad interactiva entre sus partículas constituyentes.
Las áreas dentro de los círculos corresponden a potenciales de sucesos y, cuando los sucesos
se rigen por las leyes de la física, a instancias potenciales de la ley física o "sintaxis
nomológica". Cuando cada círculo corresponde a dos o más objetos, también incluye potenciales
de objeto. Es decir, los límites circulares de los círculos de Venn pueden interpretarse como los
51
de objetos "potencializados" en proceso de absorción de sus vecindarios espaciotemporales.
Dado que los potenciales de suceso y los potenciales de objeto coinciden, puede decirse que las
instancias potenciales de la ley residen "dentro" de los objetos y, por tanto, pueden considerarse
funciones de sus reglas internas o "sintaxis de objeto". De este modo, los objetos se convierten
en operadores sintácticos, y los acontecimientos en intersecciones de sintaxis nomológica en la
52
valor común de un parámetro de estado observable, la posición. El círculo correspondiente al
nuevo suceso representa un atributo consistente en todas las relaciones nomológicas asociadas
adecuadas a la naturaleza de la interacción, incluidos los agregados conservados, y forma una
"cobertura sintáctica" puntual (de estado) para todos los potenciales posteriores.
Dado que la contracción de un objeto dentro de su imagen anterior equivale a una forma de
sustitución lógica en la que el objeto es "descrito" o determinado Venn-diagramáticamente por
su estado anterior, no hay forma de distinguir entre la expansión sistémica hacia fuera y la
sustitución de contenido hacia dentro, o entre las "gramáticas" dinámicas y lógicas asociadas.
Esto no es más que un replanteamiento de la dualidad atributiva; las relaciones de contención
topológica entre conjuntos de puntos son equivalentes a la predicación descriptiva de la verdad
de las afirmaciones que afirman la contención, y a las relaciones de distribución entre
descriptores de estado. Junto con la simetría intrínseca de los sistemas indefinidos
externamente, la dualidad atributiva elimina cualquier posible distinción lógica o geométrica
entre la expansión hacia el exterior de un universo autocontenido mientras su contenido
permanece estático en tamaño, y un endomorfismo lógico en el que el universo permanece
estático mientras los estados de su contenido son sustituidos recursivamente por estados
anteriores.
Ya se ha señalado en relación con el MAPA que cuando las dimensiones externas de un sistema
no están definidas, no se puede hacer ninguna distinción en cuanto al tamaño más allá de la
relación entre el tamaño del sistema y su contenido. Consideremos una simple analogía
aritmética: 1/2 = 1000/2000 = 1(109999 )/2(109999 ) = (...).
Cuando el numerador y el denominador de una fracción se multiplican por un número
determinado, el valor de la fracción no cambia; es independiente de las distinciones relativas al
tamaño del multiplicador. Del mismo modo, la proporcionalidad intrínseca de un sistema
autónomo es independiente de cualquier medida externa. Esto implica que con respecto a un
universo autocontenido para el que no existe ninguna medida externa, no se puede hacer
ninguna distinción entre la expansión del sistema con respecto a su contenido, y la contracción
de su contenido con respecto a él. De hecho, dado que lo indefinido no puede cambiar -no hay
nada definido con respecto a lo cual sea posible el cambio-, la expansión aparente del
contenedor no puede definirse extrínsecamente, sino que implica una contracción intrínseca
conspansiva equivalente de su contenido.
Así, la dualidad conspansiva relaciona dos visiones complementarias del universo, una basada
en los estados externos (relativos) de un conjunto de objetos, y otra en las estructuras y
dinámicas internas de los objetos considerados como procesadores del lenguaje. La primera,
que describe el universo tal y como suele entenderse en física y cosmología, se denomina
ERSU, abreviatura de Expanding Rubber Sheet Universe (Universo de lámina de caucho en
expansión), mientras que la segunda se denomina USRE (ERSU deletreado al revés),
53
abreviatura de Universe as a Self-Representational Entity (Universo como entidad
autorrepresentativa). Simplificando, ERSU es como un conjunto, concretamente un conjunto
topológico-geométrico de puntos, mientras que USRE es como un lenguaje nomológico
autodescriptivo. Mientras que la ERSU se expande en relación con los tamaños invariantes de su
contenido, la USRE "conspira", manteniendo invariante el tamaño del universo al tiempo que
permite que los tamaños de los objetos y las escalas temporales se reduzcan en proporción
mutua, preservando así la covarianza general.
54
Esto tiene ciertas implicaciones interesantes. En primer lugar, mientras que normalmente se
supone que el tamaño de los objetos materiales permanece fijo mientras que el de todo el
universo cambia "ectomórficamente" a su alrededor, la expansión consensual mantiene
invariable el tamaño del universo y cambia endomórficamente el tamaño de los objetos. Dado
que el universo desempeña ahora el papel de invariante, existe una tasa estándar global de
expansión interna o absorción mutua entre los contenidos del universo ("invariancia c"), y debido
a la covariancia sintáctica, los objetos deben redimensionarse o "requantizarse" con cada nuevo
acontecimiento de acuerdo con un factor de reescalado constante (independiente del tiempo)
que reside en la sintaxis global. En segundo lugar, dado que la tasa de contracción es una
función constante de una relación de tamaño cambiante, el universo parece, desde un punto de
vista interno, estar acelerando su "expansión", lo que conduce al dual conspansivo de una
constante cosmológica positiva.39
La dualidad conspansiva, cuyo papel en la CTMU es en cierto modo análogo al del Principio de
Equivalencia en la Relatividad General, es la única salida de una "torre de tortugas" ectomórfica
infinita. Si la geometría perceptiva de la realidad careciera de una representación dual
conspansiva, el movimiento de cualquier tipo requeriría un conjunto espacial fijo o un "espacio
de fondo" ectomórfico que requiriera una explicación propia, y así sucesivamente torre abajo. La
conspansión permite que el universo se autoconfigure a través de la retroalimentación temporal.
Cada círculo de conspiración representa un potencial de suceso que corresponde a una
determinada combinación de ley y estado; incluso después de que uno de estos círculos
intrínsecamente atemporales se haya "expandido interiormente" a través de vastas extensiones
de espacio y tiempo, su suceso fuente sigue siendo actual para cualquier cosa que interactúe
con él, por ejemplo, un ojo que capte uno de sus fotones. Al mismo tiempo, la conspiración
proporciona a la función de onda cuántica de los objetos un nuevo hogar: dentro de los propios
objetos que conspiran. Sin ella, la función de onda no sólo no tiene hogar, sino que no coincide
con ningún sistema lógico evolutivo de predicados o "leyes de la física".
Si se elimina la conspiración, la realidad se convierte en un espacio inexplicable lleno de líneas
del mundo deterministas y de la pesada carga de problemas que cabe esperar cuando la
geometría se divorcia de la lógica.
Cuando la realidad se caracteriza por el monismo infocognitivo de aspecto dual (leer más),
consiste en unidades de infocognición que reflejan un acoplamiento distribuido de sintaxis
transductiva y contenido informativo. La expansión describe la "alternancia" de estas unidades
entre los aspectos duales (generalizado-cognitivo e informacional) de la realidad y, por tanto,
entre sintaxis y estado. Esta alternancia, que permite refinamientos mutuos localizados de la
sintaxis cognitiva y el estado informacional, es esencial para un proceso evolutivo denominado
recursividad télica. La recursividad télica requiere otro principio basado en la dualidad
conspansiva, el Principio de Superposición Ampliada, según el cual los operadores pueden ser
adquiridos simultáneamente por múltiples telones, o relaciones sintaxis-estado
espaciotemporalmente extensas que implican a los operadores genéricos en acontecimientos
potenciales y guían oportunamente su decoherencia.
56
los últimos estados de un par de partículas en interacción suelen ser insuficientes para
determinar completamente sus próximos estados. Esto, por supuesto, plantea una pregunta:
¿cómo se determinan realmente sus próximos estados? ¿Cuál es la fuente de la medida
adicional de determinación necesaria para seleccionar sus próximos sucesos ("colapsar sus
funciones de onda")?
Dado que la teoría cuántica no parece irrevocablemente apegada al markovianismo, ¿por qué
no se ha considerado seriamente la posibilidad de relaciones causales de orden superior? Una
de las razones es la geometría del espaciotiempo, que parece confinar los objetos a "líneas del
mundo" unidimensionales en las que sus estados de transición están separados por segmentos
intermedios que impiden que se "mezclen" de forma globalmente significativa. Por este motivo,
la superposición sólo suele aplicarse a las transiciones de estado individuales, al menos por
parte de los partidarios de las interpretaciones conservadoras de la mecánica cuántica.
Supertautología
58
que la naturaleza es uniforme. El problema de la inducción limita efectivamente la certeza al
razonamiento matemático.
Reducción y ampliación
Los mayores avances teóricos suelen asociarse a dos procesos complementarios: la reducción y
la ampliación. Los componentes conceptuales de una teoría se reducen a componentes más
fundamentales, y la teoría se amplía mediante la aparición de relaciones nuevas y más
generales entre ellos. La CTMU reduce la realidad a información autotransductora y, en última
instancia, a telesis, utilizando la estructura sintáctica cerrada y reflexiva de la primera como
plantilla para la teoría de la realidad.
En ciencia, todo requiere una explicación... incluso las explicaciones. No sólo las
observaciones exigen teorías explicativas, sino que las teorías requieren explicaciones propias.
Por desgracia, a veces se olvida que hasta que algo no se ha explicado de forma explicable, no
se ha explicado correctamente del todo. Si una teoría no se explica por sí misma, hay que
reducirla a una teoría más fundamental que la explique; de lo contrario, sólo se basa en
suposiciones.
Por ejemplo, consideremos una explicación según la cual "los pájaros pueden volar porque
tienen alas". Sin una explicación de la resistencia atmosférica, esta explicación es incompleta;
no contiene ninguna explicación de por qué o cómo las alas permiten volar, simplemente se
basa en la suposición de que lo hacen.
Por tanto, aunque es cierta en la medida en que lo es, omite conocimientos de apoyo cruciales y
no puede sostenerse por sí sola. En resumen, toda teoría Ti+1 que no se explique por sí misma
debe poder reducirse a una teoría más amplia.
teoría fundamental Ti que la explica y la sustenta, de modo que Ti " Ti+1 , y esta regresión explicativa
sólo puede terminar con una teoría autoexplicativa T .0
Este hecho se olvida con mucha frecuencia en la biología evolutiva, donde (por ejemplo) se
utilizan detalles de la estructura y la dinámica molecular para explicar los fenómenos orgánicos.
Aunque estos detalles proceden de las teorías más fundamentales de la química y la física
cuánticas, nunca constituirán una explicación satisfactoria de la vida hasta que no incorporen no
sólo una explicación de la física y la química, sino de la realidad en general. Esto es cierto
porque la realidad física (observable) no es un modelo completo para la física y, por tanto, no es
autocontenida con respecto a la explicación -en este sentido, cualquier interpretación
exclusivamente materialista de la teoría física es prima facie absurda- y porque la física es una
teoría no autoexplicativa independientemente del modelo. Para explicar los fenómenos
orgánicos mediante la selección natural, se necesita una explicación de la selección natural,
incluida la "selección natural" de las leyes de la física y del universo en su conjunto.
59
La reducción teórica implica una desvinculación regresiva de las restricciones informativas
progresivas para lograr explicaciones cada vez más básicas. Las firmas teóricas cerradas se
rasgan
60
y reducido a conceptos más básicos que pueden reformarse en firmas más básicas y
expresivas. Sin embargo, la parte informacional de la regresión termina allí donde una mayor
reducción comprometería la inteligibilidad; no puede haber una mayor regresión reductora a
través de estratos teóricos cada vez más fundamentales una vez que los requisitos de
regresión, reducción, teorización y estratificación se han perdido por sí mismos. Más allá de
este punto, la infocognición da paso al potencial informativo y cognitivo, o telesis.
El proceso de reducción de las distinciones a los medios sintácticos homogéneos que las
sustentan se denomina regresión sindifónica. Este proceso implica la unisección, por la que las
reglas de estructura y dinámica que rigen respectivamente un conjunto de objetos distintos se
reducen a una "unión sintáctica" en un entramado infocognitivo de medios sintácticos. La
unisección es una forma general de reducción que implica que todas las propiedades realizadas
dentro de un medio son propiedades del propio medio.
Cuando las propiedades emergentes son meras propiedades latentes del medio teleosintáctico
de emergencia, los misterios de los fenómenos emergentes se reducen a sólo dos: ¿cómo se
anticipan las propiedades emergentes en la estructura sintáctica de su medio de emergencia, y
por qué no se expresan salvo en condiciones específicas que implican (por ejemplo) el grado de
complejidad sistémica?
61
En última instancia, el cambio conceptual de la información a la información autotransductora
requiere la ampliación de las teorías intensivas en información, incluidas las teorías de la
información, la computación y la cibernética. El problema radica en que, tal y como se
entiende en estos campos, la información es un concepto limitado basado en un modelo de
ingeniería en el que la existencia de
62
Los emisores, receptores, mensajes, canales y medios de transmisión ya están convenientemente
dados, con todas las leyes estructurales y dinámicas necesarias para que funcionen juntos.
Además, la estructura de bits especificada en este modelo se relaciona con la estructura real de
la información del mismo modo que la lógica proposicional se relaciona con la lógica en su
conjunto, incluidos el cálculo de predicados y la teoría de modelos. A saber, sólo se considera un
único nivel de estructura y funcionalidad, y la atribución se limita principalmente a un par de
predicados centrales comunes a ambas teorías, Verdadero / Falso = 1 / 0. Al igual que la lógica
sentencial sólo se ocupa de las relaciones funcionales de las variables sentenciales e ignora su
contenido, la teoría de la información sólo se ocupa de las probabilidades de los símbolos en las
cadenas de mensajes e ignora los detalles de la estructura y el procesamiento sintáctico y
semántico.
Diagrama 12: Tanto la lógica sentencial como la teoría de la información ignoran niveles enteros de estructura
para reducir el universo a 1s y 0s. En la lógica sentencial, las variables sentenciales sólo se distinguen por si son
verdaderas o falsas (1 ó 0), mientras que la teoría estándar de la información, junto con las teorías de la
computación y la cibernética, trata con "datos en bruto" expresados o "codificados" en los términos más básicos
posibles, a saber, los dígitos binarios 1 y 0. Mientras que el papel de estos "bits" es reducir la incertidumbre con
respecto a elementos específicos del contenido, se omiten convenientemente ciertos detalles esenciales de la
estructura y el procesamiento sintáctico y semántico, así como relaciones más específicas entre variables y
datos. Los signos rojos de interrogación indican que ni la lógica sentencial ni la teoría de la información se
explican plenamente a sí mismas, ni a su modelo, ni a su medio. [Diagrama parcialmente adaptado de Shannon,
C.E. (1948), "A Mathematical Theory of communication", Bell System Technical Journal, vol. 27, pp. 379-423 y
623-656].
Sin embargo, lo más interesante de la analogía es su extensión lógica. Al igual que la lógica
sentencial se extiende de forma natural para abarcar los niveles de atribución asociados a la
lógica de predicados y a la teoría de modelos, la teoría de la información puede extenderse de
forma natural para abarcar niveles de atribución más profundos... de hecho, los mismos dos
niveles anexos a la lógica sentencial.
El reequipamiento del concepto de información consta de tres etapas. En primer lugar, hay que
dotarlo de los medios de su propia transducción o procesamiento transformativo. Donde la
transducción de la información se reconoce (cognitivamente) como cognición generalizada, esto
equivale a sustituirla por un cuanto de reflexividad de doble aspecto, la infocognición, que
encarna la retroalimentación télica. En segundo lugar, su estructura de bits, una mezcla simplista
y bastante poco inspirada de lógica proposicional de 2 valores y teoría de la probabilidad, debe
ampliarse para dar cabida a la lógica en su conjunto, incluyendo (1) la lógica de predicados, (2)
63
la teoría de modelos y
(3) la teoría del lenguaje, que incluye ampliamente las teorías de los lenguajes matemáticos, los
metalenguajes y las gramáticas generativas. Al fin y al cabo, puesto que la información no hace
más que atribuir predicados organizados lingüísticamente a objetos en el contexto de modelos,
su significado implica las matemáticas de
64
predicados, lenguajes y modelos. Y tercero, debe generalizarse a un medio ancestral último, la
telesis, del que surgen la sintaxis cognitiva y su contenido informacional por retroalimentación
especificativa como parte de un complejo unificado... un acoplamiento recursivo de información
y metainformación, o sintaxis transductiva.
Dicho esto, hay un sentido en el que el monismo infocognitivo concuerda bien con la tesis de
que los bits son descriptores universales de la realidad: dado que los valores de bit 1 y 0 son
análogos a los valores de verdad de la lógica de 2 valores, el hecho de que la realidad
perceptiva se describa mediante la lógica de 2 valores implica que puede describirse en
términos de bits. Sin embargo, aunque la realidad en general se define por su relevancia para la
realidad perceptiva en el sentido relativista, no consiste únicamente en la realidad perceptiva.
La respuesta se esconde en la pregunta. Las leyes no se sostienen por sí solas, sino que deben
definirse con respecto a los objetos y atributos sobre los que actúan y que aceptan como
parámetros.
Del mismo modo, los objetos y los atributos no se sostienen por sí mismos, sino que deben
definirse con respecto a las reglas de estructura, organización y transformación que los rigen. De
ello se deduce que el medio activo de la definición cruzada posee primacía lógica sobre leyes y
65
argumentos por igual, y es por tanto de naturaleza preinformacional y prenomológica... es decir,
télica. La telesis, que puede caracterizarse como "potencial infocognitivo", es el medio activo
primordial del que emergen las leyes y sus argumentos y parámetros por refinamiento mutuo o
recursividad télica.
66
En otras palabras, la telesis es una especie de "pre-espacio-tiempo" del que aún no han surgido
por separado el tiempo y el espacio, la cognición y la información, la sintaxis estado-transición y
el estado. Una vez unida en una forma infocognitiva primitiva que impulsa la emergencia
generando "tensión aliviable" entre sus componentes espaciales y temporales generalizados -es
decir, entre estado y sintaxis de estado-transición- la telesis continúa refinándose en nuevas
configuraciones infocognitivas, es decir, nuevos estados y nuevos arreglos de sintaxis de
estado-transición, para aliviar la tensión entre sintaxis y estado a través de la recursividad télica
(que nunca puede hacer completamente, debido a las contingencias que inevitablemente
resultan de la recursividad télica independiente por parte de subsistemas localizados). En cuanto
a la forma infocognitiva télico-recursiva primitiva MU en sí misma, no "emerge" en absoluto
excepto intrínsecamente; no tiene existencia "externa" excepto como una de las miríadas de
posibilidades que existen naturalmente en un reino ilimitado de restricción cero.
Diagrama 13: El diagrama anterior ilustra la relación de la recursividad télica primaria y secundaria, con la
segunda "incrustada en" o expresada en términos de la primera. Los círculos y flechas grandes representan leyes
universales (sintaxis distribuida) en retroalimentación télica con el estado inicial del espaciotiempo (distribución
inicial de masa-energía), mientras que los círculos y flechas pequeños representan la retroalimentación télica
entre aspectos contingentes localizados de la sintaxis y el estado a través de la conspansión. La etapa primaria
maximiza la utilidad global generalizada sobre una base ad hoc a medida que los telores locales maximizan libre
e independientemente sus funciones de utilidad locales. Las contrapartidas en la etapa primaria de la expansión
interna y la recantización se denominan coinversión e incoversión. En virtud de la recursividad télica, el universo
SCSPL puede describirse como su propio "protoordenador cuántico" autosimulativo y autoactualizador.
68
autoactualizativamente coordina los acontecimientos a la luz de relaciones de orden superior o
telones que son invariantes con respecto a la identidad global, pero que pueden mostrar cierto
grado de polimorfismo en órdenes inferiores. Una vez que una de estas relaciones es nucleada
por una oportunidad de recursividad télica, puede convertirse en un ingrediente de la sintaxis en
uno o más operadores o telores télico-recursivos (globales o a nivel de agente) y ser "llevada
hacia fuera" por expansión interna, es decir, sostenida dentro del operador a medida que se
involucra en la absorción mutua con otros operadores. Dos características del espaciotiempo
conspansivo, la homogeneidad atemporal de los IED (estratos de operadores) y la posibilidad de
superposición ampliada, permiten entonces al telón autorrealizarse coordinando
"inteligentemente", es decir, télico-recursivamente, los acontecimientos de manera que se
produzca su propia emergencia (sujeta a diversas restricciones más o menos sutiles que
implican la libertad disponible, el ruido y la interferencia competitiva de otros telones). En
cualquier sistema autocontenido y autodeterminativo, la recursividad télica forma parte
integrante de los niveles cósmico, teleobiológico y volitivo41 de la evolución.
El principio télico
Restringido al nivel teleológico ("¿Por qué?") de explicación, el MAP da lugar al Principio Télico:
el universo se configura a sí mismo de acuerdo con el requisito de autoseleccionarse a partir de
un fondo de potencial ontológico indiferenciado o telesis. Este requisito, que equivale a una
necesidad de autoactualización y autoexpresión, está implícito en la forma de la UM. El Principio
Télico es responsable de convertir el potencial en actualidad de tal manera que se maximice un
parámetro universal de autoselección, la utilidad generalizada.
La teleología, la idea de que el universo tiene un propósito que explica su existencia y guía su
evolución, hace tiempo que empezó a perder fuerza en el tribunal de la opinión científica.
Aunque al principio se supuso que una explicación más neutra y menos "teológica" de la
existencia del hombre y del universo vendría a llenar el vacío explicativo resultante, con el
tiempo se hizo evidente que tal sustituto no salía convenientemente de las ecuaciones; en
cualquier caso, sería necesaria cierta interpretación de nivel superior. Esto marcó el surgimiento
del llamado Principio Antrópico, que ahora viene en varios sabores incluyendo "débil", "fuerte",
"final", y el favorecido por Wheeler, "participativo".
La versión inicial (débil), el Principio Antrópico Débil o WAP, comienza con el punto trivial aunque
algo bayesiano de que nuestras observaciones cosmológicas del universo revelan una
capacidad para la vida "porque" un universo con vida es el único tipo de universo en el que hay
seres vivos capaces de hacer observaciones cosmológicas. Pero aunque esto parece implicar
que existe un dominio de muchos universos en el que tal universo puede distinguirse
pasivamente por la restricción circunstancial de que contiene observadores vivos, la AMP no
ofrece ninguna explicación lista para tal dominio. De hecho, para quienes no están convencidos
de sus virtudes, la AMP casi parece añadir una dosis innecesaria de tinta roja explicativa al libro
de contabilidad cosmológico.
El Principio Antrópico Fuerte (SAP) elimina gran parte de esta tinta roja al hacer una afirmación
más extrema, afirmando que la existencia de vida inteligente no es sólo un principio de selección
circunstancial, sino una condición sine qua non de la existencia cósmica. En efecto, esto limita el
conjunto de universos posibles a sólo aquellos que son capaces de producir vida. Sin embargo,
esto plantea problemas. ¿Cómo cuadrar la idea de que los observadores vivos son necesarios
para la existencia del universo con la idea de que la realidad objetiva es esencialmente
independiente de la observación y de quienes la observan? ¿Y cómo puede la vida inteligente,
que parece haber evolucionado miles de millones de años después del nacimiento del universo,
desempeñar algún tipo de papel causal en la cosmología? ¿Se está produciendo algún tipo de
"viaje en el tiempo"? Una cosa es la selección y otra la autogeneración retroactiva.
70
¡aquí para observar el universo! Desgraciadamente, los principios antrópicos carecen de algo
que les haría falta para que esto funcionara: un modelo circular en el que su razonamiento en
forma de bucle pudiera ser coherente. Sencillamente, el tipo de circularidad causal que sugieren
no concuerda con la "flecha del tiempo" ni con otros aspectos de los modelos no circulares del
tiempo y el espacio.
Dado que los argumentos circulares se justifican por sí mismos y son resistentes a la falsación,
a menudo se asume que la tautología y el razonamiento circular son males teóricos absolutos.
Pero esto está lejos de ser así, ya que la lógica y las matemáticas se basan casi por completo
en la circularidad. La verdad y la tautología lógica, la recursividad y la iteración, el cierre
algebraico y topológico... todos la implican en algún grado. Los problemas surgen sólo cuando el
razonamiento circular se emplea sin la garantía de una generalidad matemática plena,
incorporando falsas pretensiones de universalidad sobre premisas (que pueden ser) no
universales.
Por desgracia, ni siquiera las tautologías válidas son aceptadas por la escuela predominante de
filosofía científica, el falsacionismo. Mientras que las tautologías no universales se prohíben con
razón debido a su resistencia a los procedimientos de falsación que revelarían sus limitaciones,
las tautologías universales se declaran "científicamente carentes de interés" por la misma razón.
Pero, de hecho, la ciencia no podría existir en modo alguno sin ellas. La posibilidad misma de
una observación científica depende totalmente de la existencia de formas tautológicas en las
que basar una sintaxis estable e invariable de la percepción. Esto plantea la posibilidad de que
el pensamiento falsacionista haya oscurecido accidentalmente el verdadero lugar del
razonamiento tautológico en la cosmología.
El principio télico difiere de los principios antrópicos en varios aspectos importantes. En primer
lugar, va acompañado de principios y modelos de apoyo que demuestran que el universo posee
el grado necesario de circularidad, en particular con respecto al tiempo. En particular, el
Principio de Superposición Ampliada, una propiedad del espaciotiempo conspansivo que
relaciona coherentemente acontecimientos muy separados, permite que el universo se
"retrodictamine" a sí mismo mediante una retroalimentación intertemporal significativa. Además,
para funcionar como principio de selección, genera un parámetro de selección global
generalizado análogo a la "autoutilidad", que luego trata de maximizar a la luz de la libertad
evolutiva del cosmos expresada a través de subsistemas télicos localizados que reflejan el
sistema global al tratar de maximizar la utilidad (local). En este sentido, el Principio Télico es una
extensión ontológica de los llamados "principios de economía" como los de Maupertuis y
Hamilton relativos a la menor acción, sustituyendo la menor acción por la desviación de la
utilidad generalizada.
72
Algunos antecedentes
Una revisión de la teoría computacional estándar del lenguaje puede resultar útil. La teoría de
la computación reconoce dos tipos generales de autómatas, los transductores y los
aceptores. Los transductores convierten la entrada en salida, mientras que los aceptores
clasifican o "reconocen" la entrada consistente en cadenas de símbolos sin producir
necesariamente una salida.
Un aceptor finito es una 5-tupla (Q,Σ,δ,q0 ,A), donde Q es un conjunto finito no vacío de estados
internos, Σ es un alfabeto, q0 , es el estado inicial, y A ⊆ Q es el conjunto de estados
aceptantes. El rango del mapeo de transición δ determina el tipo de aceptor; es determinista si
δ:Q×Σ🡪Q, y no determinista si δ:Q×Σ🡪2Q (donde 2Q representa el conjunto potencia de estados
posibles). Un aceptor finito determinista (Q,Σ,δ,q0 ,A) acepta una cadena x ∈ Σ* si δ(q0 ,x)∈A.
Un lenguaje es el
conjunto de cadenas aceptadas por un autómata o clase de autómatas determinado.
Los lenguajes se generan mediante gramáticas. En la teoría computacional del lenguaje, una
gramática generativa (o de estructura de frase) G es una 4-tupla (N,T,P,σ) formada por (1) un
conjunto finito N de no terminales; (2) un conjunto finito no vacío T de terminales, con N∩T=∅ y
N∪T = A (el alfabeto total de la gramática); (3) un conjunto finito de producciones P ⊂
((N∪T)*\T*) × (N∪T)* formado por argumentos no terminales y sus posibles transformaciones
terminales; y (4) un elemento σ de N llamado símbolo de inicio. La implementación de una
gramática de este tipo es un proceso deductivo que va de lo general a lo específico, empezando
por el símbolo más general σ (que significa "oración"),
Producciones cada vez más específicas conducen a una configuración terminal. La producción
(x,y), a menudo escrita x🡪y, significa la sustitución de x por y, o lo que es lo mismo, la
sustitución de y por x. Donde A* denota el conjunto de todas las cadenas o "palabras" en A, y
A*\T* denota el complemento de T* en A*, una palabra w∈(A*\T*) genera otra palabra w' si w=w
Xw12 , w'=w1 X'w2 , y X🡪X' es una producción.
La teoría de las gramáticas generativas las clasifica en función del aceptor menos potente que
pueda reconocer los lenguajes que generan. Las gramáticas de tipo 0 generan lenguajes no
restringidos que requieren un ordenador universal (máquina de Turing) con memoria ilimitada;
las gramáticas de tipo 1 generan lenguajes sensibles al contexto que requieren un autómata de
límites lineales con memoria proporcional a la longitud de la palabra; las gramáticas de tipo 2
generan lenguajes libres de contexto que requieren un autómata pushdown con una pila de
memoria en la que hay un número fijo de elementos disponibles en cualquier punto; y las
gramáticas de tipo 3 generan lenguajes regulares que requieren un autómata determinista finito
sin memoria.
Existe un paralelismo evidente entre los estados y transiciones de estado de los autómatas y las
cadenas y producciones de una gramática. Un autómata procesa cadenas de entrada a través
de sus estados internos, expresándolas en términos de su propio "lenguaje interno". De hecho,
un autómata físico que procesa una cadena de entrada puede verse como una estratificación
lingüística dinámica que incorpora el lenguaje de entrada, la programación mutable del autómata
(incluidos el ensamblador y el código máquina), su arquitectura cableada, el lenguaje
nomológico consistente en las leyes de la física según las cuales funciona el hardware, y
cualquier nivel "metafísico" de lenguaje necesario para definir y mantener las propias leyes de la
física. Dado que cada lenguaje de esta secuencia se expresa en términos del siguiente, los
lenguajes forman un "anidamiento descriptivo" en el que la sintaxis de cada uno se distribuye
sobre todos los que le preceden.
73
La sintaxis de una lengua está formada por su gramática y la estructura de sus expresiones. Es
decir, una sintaxis es una compilación de las reglas espaciales (estructurales) y temporales
(gramaticales, transformacionales) del lenguaje asociado; sus reglas son invariantes, generales
y distributivas con respecto a
74
el conjunto de expresiones que componen la lengua. Este concepto tiene tanto sentido para los
autómatas como para los lenguajes que procesan, y se aplica a todos los niveles de la
estratificación lingüística que acabamos de describir. Por ejemplo, cuando el concepto de
covarianza general expresa el carácter general y distributivo de las leyes de la física, estas leyes
pueden considerarse como una "sintaxis" en sí mismas, al igual que las leyes matemáticas más
generales que se aplican a las distintas estructuras matemáticas a las que se refieren
implícitamente las leyes de la física.
La física y las matemáticas no suelen considerarse lenguajes, sino teorías. Aunque se expresan
necesariamente en términos de lenguaje, suelen considerarse "más específicas". Pero, al igual
que los autómatas, también responden a criterios lingüísticos. Por ejemplo, las teorías
matemáticas tienen sintaxis formada por axiomas y reglas de inferencia, y diversas expresiones
derivadas como definiciones, teoremas y corolarios. En términos más generales, una teoría es
simplemente una construcción informativa que desempeña un papel directo definitivo,
descriptivo o explicativo con respecto a algo que necesita ser definido, descrito o explicado.
Puesto que las teorías están formadas por cadenas de símbolos reconocibles que adoptan la
forma de enunciados y ecuaciones y obedecen a "sintaxis" consistentes en axiomas, principios,
corazonadas o reglas empíricas, y de hecho comparten sus sintaxis con los objetos de
teorización hasta el isomorfismo descriptivo, son lenguajes. De hecho, los propios requisitos de
la teorización, a saber, la percepción y la cognición, son lenguajes en el sentido de que
consisten en "expresiones" sensoriales o conceptuales y se ajustan a sintaxis lógicas y no
lógicas consistentes en reglas generales de estructura y funcionamiento, incluidas (aunque no
necesariamente limitadas a ellas) las estructuras físicas y la dinámica de nuestros cerebros y
sistemas nerviosos.
Repasemos rápidamente algunos detalles técnicos de los lenguajes teóricos. Una teoría
matemática consta de proposiciones que contienen predicados básicos y funciones que
representan
conceptos fundamentales. Por ejemplo, la teoría de conjuntos se basa en el concepto de pertenencia
(∈);
la geometría depende en gran medida de conceptos primitivos como el ángulo y la distancia; y la
geometría elemental
La aritmética incorpora los conceptos más o menos básicos de suma, multiplicación y orden (<).
Los símbolos que representan estos conceptos, a veces denominados constantes no lógicas,
forman las
firma Σ de la teoría. Esta firma incluye símbolos para relaciones, funciones e individuos,
cada una con una "aridad" o valencia. Más allá de su firma, una teoría matemática contiene variables
(símbolos preasignados que denotan objetos de un dominio previamente especificado) para
individuos representados por símbolos como (x,y,z,...), símbolos lógicos (constantes lógicas) como
(~, ∧,∨,→,↔,=,∃,∀), y símbolos técnicos auxiliares.42
Un lenguaje elemental LΣ (lenguaje del cálculo de predicados) puede definirse como un conjunto
de expresiones o formas proposicionales que incorporan estos símbolos lógicos y no lógicos y
sus reglas sintácticas. Los términos de LΣ se definen como sigue: (1) las variables y las
constantes de los individuos son términos; (2) si F es un símbolo de función n-ario y t1 ,...,tn son
términos, entonces Ft1 ,...,tn es un término; (3) una secuencia de símbolos es un término si se
ajusta a 1 y 2. Las expresiones de LΣ se caracterizan así: (1) Donde R es un símbolo de relación
n-ario y t1 ,...,tn son términos, Rt1 ,...,tn es una expresión atómica (es decir, un caso de
atribución). (2) Si A y B son expresiones, entonces también lo son ~A, (A∧B),
(A∨B), (A→B), y (A↔B). (3) Si A(x) es una expresión que contiene la variable x, pero no ∃x ni ∀x,
entonces también lo son ∃xA(x) y ∀xA(x). (4) Una secuencia de símbolos es una expresión sólo si
se forma de acuerdo con 1-3. Por naturaleza, los lenguajes de la lógica de predicados son
descriptivos.
Las expresiones describen relaciones que se mantienen dentro de diversas estructuras
matemáticas.43
Ahora debería quedar claro que, para definir un lenguaje teórico, basta con crear una sintaxis
para él, ampliando la sintaxis de la lógica para dar cabida a las relaciones espaciales y
75
temporales que se dan necesariamente entre sus constantes no lógicas en todas (o al menos en
la mayoría) de las circunstancias lógicas dentro del ámbito previsto de la teoría. Al igual que la
propia sintaxis de la lógica, que es una teoría de inclusión descriptiva o "verdad" basada en la
necesidad cognitiva y perceptiva de distinguir lo que es de lo que no es, la sintaxis de un
lenguaje teórico también se basa en ingredientes e imperativos de la realidad cognitiva y
perceptiva. Ya hemos señalado la equivalencia entre autómatas y lenguajes; los estados y
transiciones de estado de los autómatas son paralelos a las cadenas y producciones de una
gramática. Para encontrar el lenguaje teórico que describa cualquier clase
76
de los transductores, basta con adjuntar a la sintaxis de la lógica los descriptores no lógicos de sus
estructuras y procesos transductores.
Los principales transductores del lenguaje general de la ciencia son los científicos, y su sintaxis
transductiva consiste en la sintaxis de la observación y la teorización científicas generalizadas,
es decir, la percepción y la cognición. Por lo tanto, podemos dividir o estratificar esta sintaxis
según la naturaleza de los elementos lógicos y no lógicos incorporados en las reglas sintácticas.
Por ejemplo, podríamos desarrollar cuatro clases correspondientes al trío fundamental espacio,
tiempo y objeto, una clase que contenga las reglas de la lógica y las matemáticas, una clase que
consista en los qualia perceptivos en términos de los cuales definimos y extraemos la
experiencia, el significado y la utilidad de la realidad perceptiva y cognitiva, y una clase que dé
cuenta de sentimientos y emociones más nebulosos integrantes de la determinación de la
utilidad de las relaciones qualia.44 Por ahora, podríamos llamar a estas clases STOS, LMS, QPS
y ETS, que significan, respectivamente, sintaxis espacio-temporal-objeto, sintaxis lógico-
matemática, sintaxis cualio-perceptiva y sintaxis emo-télica, junto con una interrelación de alto
nivel de estos componentes con la estructura a la que todos o algunos de ellos contribuyen en
última instancia. Juntos, estos ingredientes conforman la Sintaxis Cognitivo-Perceptual Humana
o SCH.45
Como todo usuario de idiomas sabe, el procesamiento de la lengua es mucho más que
reconocimiento y transducción. También existe la comunicación. Los conceptos de lenguaje y
comunicación son inseparables; los lenguajes son estructuras abstractas a través de las
cuales se efectúa la comunicación, y la comunicación implica el intercambio de entrada y
salida por parte de los usuarios del lenguaje. Siempre que tengamos una sintaxis, un conjunto
de expresiones representativas que se ajusten a ella y un conjunto de procesadores del
lenguaje, tendremos un lenguaje y la posibilidad de una comunicación significativa entre sus
procesadores.
Cuando la comunicación transmite información y la información representa relaciones, la
comunicación va más allá de los estados de los comunicadores; puede transmitir cualquier
información que represente cualquier tipo de relación. En consecuencia, los comunicadores no
sólo aceptan y transducen el lenguaje, sino que lo utilizan para representarse mutuamente sus
visiones del mundo.
En las descripciones técnicas de los autómatas y los lenguajes descritas anteriormente, está
implícito un determinado modelo del mundo. Los autómatas aceptan entradas del mundo
exterior, las transforman a través de sus estados internos y (a veces) devuelven el resultado al
mundo exterior cuando han terminado. El lenguaje y la información están dentro o fuera de los
autómatas, y sólo están dentro una parte del tiempo. El resto del tiempo, la información está
presumiblemente en algún otro lugar del entorno o en camino de un lugar a otro. Pero cuando la
comunicación se produce a todas las escalas, la distinción entre interior y exterior no está tan
clara. Los lenguajes que se comunican entre usuarios y procesadores del lenguaje, y los
lenguajes que encarnan los propios usuarios y procesadores, ocupan un medio global con una
77
sintaxis comunicativa unificada en gran medida indiferente a la distinción.
Las leyes que rigen un sistema pueden estar depositadas en el espacio que contiene sus objetos
o en los propios objetos. La física clásica lo sitúa todo en el espacio, aplicando conceptos
espaciales como vectores y tensores a campos externos a los objetos. Sin embargo, es posible
aplicar una lógica
78
transformación que invierte esta imagen, volviéndola "de fuera a dentro". Esto da lugar a una
"subjetivización distribuida" en la que todo ocurre en el interior de los objetos; los objetos se
definen simplemente para interiorizar de forma coherente sus interacciones, lo que en la práctica
coloca a cada objeto "dentro" de cada uno de los demás de forma generalizada y, por tanto,
sitúa el contenido del espacio en el mismo plano que el que antes ocupaba el propio espacio que
lo contenía. Los vectores y tensores se convierten entonces en descriptores de las propiedades
sintácticas internas y los estados de los objetos. En efecto, el universo se convierte en una
"autosimulación" que se ejecuta dentro de su propio contenido.
Introducción al SCSPL
En un principio, se podría objetar que no hay razón para creer que el universo no "existe" sin
más y que, por tanto, la autoselección es innecesaria. Sin embargo, ésta no es una postura
válida. En primer lugar, implica una apelación más o menos sutil a algo externo al universo, a
saber, un medio informativo previo/externo o "sintaxis" de la existencia; si tal sintaxis fuera
suficientemente relevante para esta realidad, es decir, suficientemente real, para apoyar su
existencia, entonces estaría analíticamente incluida en la realidad (tal como se define hasta la
relevancia perceptiva). En segundo lugar, la autoselección activa es realmente necesaria, ya
que la existencia no es meramente un estado, sino un proceso; el universo debe distinguir
internamente lo que es de lo que no es, y la pasividad queda descartada porque implicaría de
nuevo la participación de un principio activo complementario de origen externo.
Así, mientras que los modelos discretos ordinarios de la realidad dependen en gran medida de la
distinción lenguaje-procesador, SCSPL no incurre en tal deuda. Por ejemplo, los modelos de
autómatas celulares suelen distinguir entre una matriz espacial, los objetos informativos que
existen en ella y el conjunto distribuido de reglas temporales de transición de estados que
regulan la matriz y su contenido. En cambio, SCSPL considera el lenguaje y el procesador como
aspectos de una unidad infocognitiva subyacente. Por dualidad conspansiva (ectomorfismo-
endomorfismo), los objetos SCSPL contienen el espacio y el tiempo en un sentido tan real como
aquel en el que el espaciotiempo contiene los objetos, lo que da lugar a una identificación parcial
de espacio, tiempo y materia. SCSPL es más que un lenguaje de programación reflexivo dotado
de capacidad de autoejecución computacional; es una entidad protocomputacional capaz de
recursividad télica y, por tanto, de generar su propia estructura y dinámica informacional y
sintáctica.
Mientras que los modelos computacionales ordinarios son de carácter informacional y sintáctico,
la naturaleza protocomputacional del SCSPL requiere una generalización de la información y la
sintaxis. Con respecto al origen o naturaleza última de la realidad perceptiva, la explicación es
un proceso reductivo/inductivo que desata regresivamente las restricciones para dejar al
descubierto las de mayor prioridad y generalidad. Este proceso conduce finalmente al descriptor
inteligible más básico que puede formularse, más allá del cual sólo se encuentra lo ininteligible.
Esto marca la transición de la información y la sintaxis a una generalización reductora
convergente, la telesis.46
Esto apunta a una propiedad universal del lenguaje: es dinámico. Aunque a menudo se asume
convenientemente que las lenguas son ideales platónicos atemporales que flotan a la espera de
ser procesadas por aceptadores externos, sólo pueden ser tratadas en términos de información
estática por usuarios o procesadores que les proporcionen una sintaxis transductiva externa, y
sólo entonces descuidando ciertas necesidades subyacentes. Por ejemplo, para realizar
físicamente la estructura informativa de un lenguaje en un medio impreso o electrónico, debe
expresarse en términos de partículas físicas que reconozcan dinámicamente la ubicación de las
demás en la medida necesaria para mantener las relaciones espaciales que componen su
estructura informativa. Se trata de un requisito general, que se extiende de lo físico y concreto a
lo matemático y abstracto.
Así pues, los lenguajes son, en última instancia, autoprocesadores; o bien deben contener sus
procesadores en sus expresiones, o bien deben expresarse en términos de un lenguaje más básico
que cumpla este requisito.
En consecuencia, las expresiones del SCSPL son configuraciones informativas dinámicas de
procesadores de información, lo que implica que el SCSPL consta en todas partes de
información y sintaxis aceptivo-transductiva en un estado de intersección lógica. Juntas, la
información y la sintaxis comprenden la infocognición, información autotransductora en forma de
operadores sintácticos SCSPL que se "comunican" por absorción cruzada adquiriendo
80
mutuamente sus estados informativos como contenido cognitivo-sintáctico. Es a la base común
de estos dos componentes a lo que puede reducirse la información en el contexto SCSPL.
Donde el término telesis denota este componente común de información y sintaxis, la gramática
SCSPL refina la infocognición vinculando o restringiendo la telesis como infocognición.
81
no determinísticamente recursiva, sino télico-recursiva. Mientras que una gramática ordinaria
procesa recursivamente la información o vincula el potencial informativo a una sintaxis invariante
que se distribuye sobre
sus productos, la gramática Γ une la telesis, el potencial infocognitivo que abarca las posibles
relaciones
de sintaxis y estado, mediante la referencia cruzada de la sintaxis y su contenido informativo a través
de la recursividad télica.
La recursividad télica es el proceso responsable de configurar las relaciones sintaxis-
contenido en las que se basa la recursividad informativa estándar; su existencia es un
requisito ontológico de la
realidad. El refinamiento télico-recursivo cruzado de sintaxis y contenido está implícito en la "semilla"
de Γ-.
gramática, la forma MU, que encarna el potencial de complementariedad perfecta de sintaxis y
estado, ley y materia.
Dado que este potencial sólo puede realizarse específicamente a través de la vinculación
infocognitiva de la telesis, y que la vinculación télica localizada es efectuada libre e
independientemente por operadores télicos localizados y mutuamente decoherentes, las
desviaciones de la complementariedad perfecta son ubicuas. La evolución SCSPL, que puede
verse como un intento de ayudar a que esta complementariedad emerja de su estado potencial
en MU, incorpora una invariante global (sintáctica) que trabaja para minimizar la desviación total
de la complementariedad perfecta de la sintaxis y el estado a medida que los operadores
sintácticos vinculan libre e independientemente la telesis. Esta invariante primaria SCSPL, el
Principio Telic, toma la forma de una función de selección con un parámetro cuantitativo, la
utilidad generalizada, relacionada con la desviación. El Principio Telic puede considerarse como
el componente primario de la sintaxis SCSPL... la "elección de existir" auto-selectiva distribuida
espacio-temporalmente que coincide con MU.
Las "palabras" producidas por la gramática Γ no son cadenas de símbolos, sino relaciones
espaciales LO entre procesadores paralelos que pueden leer y escribir en los estados de los
demás. En efecto, los estados de
82
sus procesadores son aproximadamente análogos a los símbolos y cadenas de un lenguaje
ordinario. Así pues, los procesadores de la gramática Γ funcionan no sólo como transductores, sino
también como marcadores simbólicos de posición para observables y valores, mientras que sus
estados externos corresponden a productos y sus estados
transiciones realizan las producciones de la gramática. En otras palabras, los estados y las
transiciones de estado de los procesadores de la gramática Γ comprenden una
representación de la gramática Γ, lo que convierte a SCSPL en un lenguaje dinámico de
automodelado o "autosimulación interactiva".
En la siguiente descripción, los productos se limitan a los productos finales físicos asociados a
LO . Esto no debe interpretarse en modo alguno en el sentido de que los únicos productos
SCSPL sean productos físicos;
83
de hecho, todo en SCSPL es en cierta medida un "producto" télico-recursivo de todo lo demás.
Sin embargo, cuando el explanandum primario es la realidad física (científicamente observable),
LO es una opción adecuada.
Γ = (O,R,P,µ) contiene
(1) Un conjunto O de objetos activos reflexivos que incluye al propio Γ, los procesadores
(productores-reductores)47 de Γ. Todos los procesadores son capaces y responden a la
recursividad informativa (determinista). O incluye un conjunto distinguido Σ = {Γ,A,Q} de
operadores sintácticos, procesadores coherentes capaces de o que responden a la recursividad
télica. En general, las partes de la sintaxis SCSPL activas dentro de un operador dado dependen
de su tipo específico. Σ incluye el procesador global Γ, el conjunto Q = {qi } de partículas estables
reducibles e irreducibles que responden a la recursividad télica en un grado proporcional a sus
libertad y coherencia, y el conjunto A de agentes télicos, operadores télico-recursivos activos o
telores
capaz de expresar teleología a nivel local. Los elementos de A no tienen por qué ocupar LO ,
sino que pueden existir en LS . Donde υ denota el parámetro de autoselección generalizado de
Γ, los elementos de A son requeridos por Γ como "sensores-controladores" internos υ-
responsivos.
(3) Un conjunto P = (N,T) formado por las producciones de Γ. N está formado por los
descriptores distribuidos de πO , incluidos los descriptores markovianos y conservadores
distribuidos espaciotemporalmente denominados "leyes de la física", mientras que T está
formado por entidades activas LS análogas a las de N pero asociadas con
telones específicos (pre-productos) de RS y sujetos a variación local coordinada en el contexto
de relaciones telónicas de orden superior. Los elementos de N se determinan en la etapa
primaria de la recursividad télica, mientras que los de T se determinan en la etapa secundaria
de la recursividad télica.
Un procesador de una gramática G es cualquier sistema dinámico natural o artificial que opera,
cambia de estado o procesa información de acuerdo con las reglas de G. A diferencia de los
sistemas generativos ordinarios, los procesadores de una gramática G son sistemas dinámicos
naturales o artificiales.
la gramática Γ no requiere procesadores externos; sus procesadores y producciones son
idénticos. Así, la gramática Γ es ejecutada por sus propias producciones en niveles de
distribución sintáctica que van del nivel global al nivel de objeto. De hecho, O, R y P -
procesadores, productos (estados)
y los eventos de producción- coinciden todos y muestran así una forma de trialidad. Esta
triple coincidencia es característica de la gramática Γ y recoge muchos de sus rasgos
esenciales.
84
La coincidencia O-R-P ya se da hasta cierto punto en el modelo estándar de lenguaje-
gramática-procesador de la teoría de la computación, pero sólo inadvertidamente. Si bien el
procesamiento lingüístico es dinámicamente paralelo a los cambios en los estados internos y
externos de los procesadores, éstos siguen considerándose separados de la lengua y la
gramática que se procesan. Además, no se tiene en cuenta el medio básico de procesamiento,
el modelo no es autosuficiente y
85
La recursividad es meramente informativa y computacional; no se permite la infocognición ni
la recursividad télica. SCSPL no comparte ninguna de estas limitaciones.
Resulta instructivo experimentar con las diversas construcciones que pueden colocarse en LS y
LO . Por ejemplo, se puede pensar en LS como "L-sim", reflejando su aspecto autosimulativo,
télico-recursivo, y en LO como "L-out", el resultado de esta autosimulación. Se puede asociar LO
con los estados observables y la sintaxis distribuida-determinista de transición de estados, y LS
con el principio télico metasintáctico.
Incluso se puede pensar en LS y LO como respectivamente internas y (parcialmente) externas a
los operadores sintácticos SCSPL, y por lo tanto como vagamente correspondientes a los
aspectos subjetivos y objetivos de la realidad. Donde LS y LO se asocian con las fases de
expansión interna coherente y de recantización decoherente de la expansión, lo mismo ocurre
con la realidad subjetiva y objetiva, la simulación y la salida, la "onda y la partícula". En otras
palabras, la distinción subjetivo-objetivo, junto con la complementariedad, pueden verse como
funciones de la dualidad conspansiva.
El hecho de que LO tenga una estructura foliada consistente en láminas espaciales, con
reglas temporales confinadas a los operadores incrustados en las láminas, sugiere que su
nivel de estructura interoperador (estado-sabio, ectosintáctico) se considere de carácter
esencialmente espacial. Así, si el espacio denota las relaciones externas entre los
operadores y el tiempo denota sus auto-relaciones internas, también se podría pensar que LS
y LO se corresponden aproximadamente con el tiempo y el espacio. (La correspondencia es
"aproximada" porque LS y LO se incluyen mutuamente, lo que refleja el acoplamiento lógico de
espacio y tiempo; LO contiene topológicamente (LO ,LS ) operadores estructurados, mientras
que los operadores contienen descriptivamente LO .) Cuando el espacio y el tiempo
corresponden respectivamente a la información y a una combinación de cognición
generalizada y recursividad télica, se puede concluir que la evolución conspansiva del
espaciotiempo es una alternancia de fases teleo-cognitivas e informativas entrecruzadas por
una recursividad télica que implica relaciones télicas extendidas y trans-markovianas.
Aunque contiene el aspecto observable del SCSPL, LO puede contener, en principio, parámetros
ocultos (inobservables) implicados en relaciones nomológicas y, por tanto, relevantes para el
estado físico. Es decir, además de las variables dinámicas estándar de la física, LO puede
86
contener variables dinámicas adicionales que no pueden observarse directamente, sino sólo
inferirse teóricamente a partir de observaciones más o menos generales. Por ejemplo, los
teóricos de las cuerdas, los teóricos M y otros suelen conjeturar que el universo puede estar
flotando en algún tipo de incrustación externa
87
espacio, su relación con el cual aporta valor explicativo respecto al estado o condición interna
del propio universo. La dualidad conspansiva SCSPL sugiere que la supuesta "externalidad" de
dicho espacio no es una propiedad significativa; si dicho espacio existe y es lo suficientemente
relevante para el universo en el que vivimos como para tener valor explicativo para nosotros,
entonces es por definición un ingrediente de la sintaxis SCSPL y, por tanto, puede considerarse
que reside dentro de los operadores sintácticos SCSPL. De hecho, esto es una consecuencia
directa del Principio de Realidad.
Aunque sería posible extenderse mucho, este documento pretende presentar un esbozo
general de la teoría más que un desarrollo exhaustivo. Junto con los principios y
características enumerados anteriormente, el marco dado debería bastar para caracterizar el
SCSPL de forma introductoria y distinguirlo en sabor y contenido de otras teorías.
El Circuito Autoexcitado, el bucle lógico informacional a través del cual la física engendra la
participación del observador, que engendra la información, que engendra la física, es una
caracterización ajustada de SCSPL... tan ajustada que sería difícil, si no imposible, sustituir
SCSPL por cualquier otra cosa y no violar ni quedarse corto con la descripción de Wheeler.
SCSPL es lógico en su construcción, tiene una dinámica de bucle, y crea información y sintaxis,
incluyendo las leyes de la física, a través de la recursividad télica generada por operadores
sintácticos a nivel de agente cuyos actos de observador-participación son esenciales para la
autoconfiguración del Universo Participativo. Estos actos están vinculados por la recursividad
télica a las interacciones cognitivo-perceptuales generalizadas de los operadores sintácticos de
nivel cuántico, los acontecimientos mínimos que componen el tejido del espaciotiempo.
El Principio de Realidad, junto con MAP, M=R y otros garantes lógicos de la autocontención
cósmica, muestra que la estabilidad sintáctica de la realidad descarta cualquier regresión
reptiliana infinita de tortuga sobre tortuga, mientras que el continuo familiar de la física clásica
corresponde a una interpolación sintáctica (LMS) del colector conspansivo generado por
operaciones gramaticales SCSPL discretas. Donde el espacio y el tiempo corresponden a la
88
información y a la cognición generalizada respectivamente, y donde la información y la cognición
están lógicamente entrelazadas en operadores sintácticos infocognitivos SCSPL que se cruzan
en estados y eventos de transición de estados, el espacio y el tiempo están entrelazados en un
entramado de eventos conspansivos conectados por la sintaxis y que evolucionan a través de la
absorción mutua.
89
acontecimientos entre operadores sintácticos, instancias simétricas de observación generalizada
influidas por la recursividad télica. Así pues, el tiempo no se "introduce" en la explicación de la
existencia, sino que es una función de la gramática conspansiva, télico-recursiva SCSPL.
El último "límite del límite" del universo es UBT, un reino de restricción cero y posibilidad infinita
donde no existe ni límite ni contenido. El universo supertautológicamente cerrado compra la
difeonesis interna sólo al precio de la síntesis global, comprando sus distinciones informativas
sólo al precio de la coherencia. Sin pregunta no hay respuesta refleja el hecho de que la
realidad no consiste en mera información, sino en infocognición, y que la información sobre el
estado está crucialmente vinculada a la sintaxis y depende de ella... la sintaxis de las
"preguntas" que se hace a sí mismo el universo autoconfigurativo. Debido a la libertad
autoconfigurativa heredada por la realidad de la UBT, el universo dinámicamente
autoconfigurativo muestra incertidumbre y complementariedad y, por tanto, no puede encerrarse
en respuestas localmente determinadas para todas las preguntas posibles a la vez, mientras que
la autoconectividad extendida del espaciotiempo conspansivo implica inevitablemente al entorno
en las preguntas y respuestas.
Las ramificaciones del CTMU son lo suficientemente amplias como para que su emisión a partir
de una única teoría exija casi una explicación propia. Las implicaciones científicas, matemáticas
y filosóficas de la CTMU son muchas y variadas, y abarcan desde la física básica y la
cosmología hasta la biología evolutiva, la teoría de la cognición, los fundamentos de las
matemáticas y las filosofías del lenguaje y la conciencia. Pero, para ser justos, no cabe esperar
menos de una verdadera "teoría de la realidad", sobre todo si adopta la forma de una
descripción de la relación entre la mente y el universo. Al fin y al cabo, la CTMU se llama así
porque es una interpretación simétrica cruzada de la realidad mental y física, que mapea
90
lógicamente el universo concreto en una teoría abstracta de la cognición generalizada y
viceversa según el Principio M=R. Si sus implicaciones fuesen menos profundas, estaría mal
categorizada y mal llamada.
91
La CTMU dice que la realidad es un lenguaje... una estructura autoexplicativa, autoteorizante y
automodelativa idéntica a su universo. Como tal, puede considerarse un límite o "contracción"
de la teoría de modelos en la que teoría y universo coinciden en el nivel sintáctico de la
estructura teórica.
Mientras que la mayoría de las teorías científicas se mapean en o sobre el universo a través de
un abismo dualista insalvable, la CTMU es una teoría mónica de la percepción que simplemente
elimina el abismo inyectando tautológicamente la lógica en su totalidad, incluyendo las
extensiones lógicas de la teoría de modelos y la lógica de las teorías formalizadas, en la realidad
como sintaxis autotransductiva distribuida. La CTMU es capaz de hacer esto porque es un
hecho matemático duro que cualquier cosa que no se ajuste a la sintaxis de la lógica es
inconsistente y, por lo tanto, no forma parte de ninguna realidad estable y coherente. Como la
realidad que habitamos es visiblemente estable y coherente, la corrección de este movimiento
está asegurada. Al eliminar el abismo teoría-universo en el nivel de la sintaxis cognitiva y
perceptiva, la CTMU cumple admirablemente el criterio de economía teórica... y además de
forma supertautológica.
La teoría del diseño, cuyos orígenes se remontan a los tradicionales "argumentos del diseño"
teológicos que sostenían que la naturaleza había sido diseñada de forma más o menos evidente
por una inteligencia preexistente, sostiene que la complejidad observada de las estructuras
biológicas implica la participación de causas inteligentes empíricamente detectables en la
naturaleza. El Diseño Inteligente, la evolución científica más reciente de la Teoría del Diseño, es
un programa de investigación científica basado en una búsqueda filosóficamente más neutral, y
por tanto científica, de casos de una forma clara, objetiva y estándar de complejidad biológica.
Según William Dembski, uno de los principales portavoces del movimiento, esto ha conducido a
"una teoría de los orígenes y el desarrollo biológicos" según la cual "son necesarias causas
inteligentes [y empíricamente detectables] para explicar las estructuras complejas y ricas en
información de la biología." En vista de la naturaleza informacional de la complejidad, Dembski
observa que "la información no es reducible a causas naturales... el origen de la información se
busca mejor en causas inteligentes".
El diseño inteligente se convierte así en una teoría para detectar y medir la información, explicar
su origen y rastrear su flujo."50
Una de las primeras cosas que hay que destacar de la definición anterior es que asocia las
definiciones implícitas de inteligencia, causalidad e información en mayor medida que la mayoría
de los diccionarios, apuntando en principio a una definición conjunta de todas ellas. Dado que
toda buena definición requiere un modelo, uno podría estar muy tentado a deducir sobre esta
92
base que el DI, tal y como se define aquí, tiene un modelo bien definido en el que todos sus
conceptos constituyentes están relacionados. Por eso puede sorprender a muchos que la
objeción más frecuente, o en todo caso la más generalizada, contra el DI en la comunidad
intelectual sea que "no tiene modelo". Según sus críticos, carece de una interpretación del
mundo real que especifique un medio fundamental capaz de sustentarla o un medio para
realizarla.
93
Además, sus críticos afirman que su hipótesis central no sólo no está demostrada, sino que no
es realista ni susceptible de confirmación empírica.
Para ser justos, hay que señalar que, en la medida en que la propia ciencia ha fracasado
estrepitosamente a la hora de ponerse de acuerdo sobre un modelo global de la realidad, esto
no es en realidad más que un ejercicio de hipocresía. La ciencia observa, relaciona y extrapola a
partir de observaciones con lo que a menudo resulta ser una gran eficacia, pero una y otra vez
se ha mostrado incapaz de justificar completamente sus reducciones o las correspondencias
entre sus teorías y el universo real en su conjunto. Aunque algunos críticos afirman que, a partir
de cierto punto, la explicación carece de sentido y es inútil, no hablan en nombre de la ciencia;
todo el propósito de la ciencia es la explicación, no afirmaciones sin fundamento racional en el
sentido de que una explicación de forma cerrada es "inasequible" o "innecesaria". Al buscar una
explicación coherente de la existencia -una explicación que incorpore una fase de diseño
ontológico que sea racional, coherente y, por tanto, inteligente-, el programa del DI es, de
hecho, perfectamente coherente con la ciencia.
Sin embargo, ser perfectamente coherente con la ciencia significa simplemente que algo está en
línea para un modelo, no que ya tenga uno. De este modo, los detractores del DI han podido
crear la ilusión, al menos para las audiencias simpatizantes, de que lo tienen en desventaja
crítica. Sostienen que mientras que la ciencia debe ser instrumental para la sociedad, producir
predicciones específicas y, por tanto, citar leyes estructurales y dinámicas específicas que
expliquen de forma no trivial sus contextos de aplicación, el DI no es más que un caballo de
Troya para la ideología religiosa, no hace predicciones no triviales y carece de estructura
teórica. Debido a la cantidad de simpatizantes que tales afirmaciones han encontrado en el
mundo académico, esta ilusión se ha convertido en un engaño de masas que se refuerza a sí
mismo en ciertos sectores cerrados de la comunidad intelectual. Obviamente, sería ventajoso
para el movimiento del DI, y para la sociedad en su conjunto, acabar con este contagio
proponiendo algo claramente reconocible como modelo.
95
necesariamente se formulan problemas menores). Esto no es sorprendente, ya que la propia
inteligencia es un fenómeno natural que nunca podría haber surgido en los seres humanos y los
animales si no fuera ya una propiedad latente del medio de aparición. Un objeto no desplaza a
su medio, sino que lo encarna y sirve así de expresión de sus propiedades sintácticas
subyacentes. Lo que es mucho más sorprendente, y mucho más decepcionante, es el conflicto
ideológico al que esto ha conducido. Parece que a un grupo le gusta el término "inteligente" pero
le es indiferente u hostil el término "natural", mientras que al otro le gusta "natural" pero aborrece
"inteligente". De alguna extraña manera, toda la controversia parece girar en torno a la
terminología.
Por supuesto, se puede argumentar de forma creíble que el argumento en realidad va mucho
más allá de la semántica... que existen diferencias sustanciales entre las dos posturas. Por
ejemplo, algunos defensores de la versión darwinista radical de la selección natural insisten en
el azar y no en el diseño como explicación de cómo se generan nuevas mutaciones antes de la
acción restrictiva de la propia selección natural. Pero esto es insostenible, ya que en cualquier
contexto científico tradicional, "azar" es sinónimo de "indeterminación" o "acausalidad", y al fin y
al cabo, acausalidad significa justo lo que siempre ha significado: magia. Es decir, algo que
existe sin causa externa o intrínseca ha sido seleccionado y traído a la existencia por nada en
absoluto de una naturaleza causal, y es por lo tanto el tipo de proposición de algo de la nada
favorecida, por lo general a través de la suspensión voluntaria de la incredulidad, por los
frecuentadores de espectáculos de magia.
Inexplicablemente, algunos de los que adoptan esta postura acusan sin embargo de
pensamiento mágico a cualquiera que proponga introducir un elemento de volición teleológica
para llenar el vacío causal. Estos podrían objetar que por "aleatoriedad" no entienden
acausalidad, sino simplemente ignorancia causal. Sin embargo, si al adoptar esta postura
pretenden invocar tardíamente la causalidad, entonces están iniciando una regresión causal.
Esta regresión puede tomar una de estas tres formas: puede ser infinita y abierta, puede terminar
en un Primer Movedor que en sí mismo no tiene explicación causal, o puede formar una especie
de ciclo cerrado que se duplica como Primer Movedor y aquello que es movido. Pero un Primer
Movedor ha sido aparentemente descartado por suposición, y una regresión abierta infinita
puede ser descartada porque su falta de una sintaxis recursiva estable haría imposible formar
límites informativos estables en términos de los cuales percibir y concebir la realidad.
¿Y la solución cíclica? Si uno utiliza leyes para explicar estados, entonces está obligado a
explicar las propias leyes. La metodología científica estándar exige que las leyes naturales se
definan a partir de observaciones de estados. Si entonces se afirma que todos los estados son
causados por definición por leyes naturales, entonces esto constituye una circularidad que
necesariamente deriva en una definición mutua de ley y estado. Si entonces se objeta que esta
circularidad sólo caracteriza el proceso de la ciencia, pero no el universo objetivo que la ciencia
estudia, y que las leyes tienen de hecho prioridad absoluta sobre los estados, entonces las
propias leyes requieren una explicación por algo distinto del estado. Pero esto descartaría de
hecho la única alternativa que queda, a saber, la configuración de ciclo cerrado, y llegaríamos
de nuevo a... la magia.
96
La CTMU afirma que, sobre bases lógicas, la realidad tiene fases generativas y restrictivas, y
que la evolución tiene fases generativas y restrictivas que se expresan necesariamente en
términos de las de la realidad. Afirma que el mecanismo metacinético de la evolución es la
recursividad télica, un proceso atemporal que establece una dialéctica estratificada entre
sintaxis y estado, organismo y
97
entorno, con niveles mutuamente coherentes mutables e invariantes. Afirma que este proceso,
aunque sujeto a diversas formas de ruido, interferencia y competencia basadas en la libertad
interna de la realidad, tiende a maximizar la utilidad del universo y sus habitantes. Por tanto, la
evolución es mucho más que una mera dictadura ambiental en la que leyes inexplicables de la
naturaleza llevan la voz cantante mientras la biología baila servilmente la giga de la vida y la
muerte.
En cualquier caso, debe quedar claro que la CTMU aporta nuevas formas de ver tanto la
evolución como la teleología. Del mismo modo que se distingue de otras teorías de la
evolución cósmica por su nivel de autocontención, sobre todo en lo que respecta a su
preferencia por la autodeterminación frente a la determinación o indeterminación externas, lo
mismo ocurre con su enfoque de la evolución biológica. A diferencia de otras teorías, la CTMU
sitúa la biología evolutiva directamente en el contexto de un modelo fundamental y
autocontenido de la realidad, dotándola así de una explicación y un fundamento propios en
lugar de pasar irresponsablemente la responsabilidad explicativa a alguna reducción futura; en
lugar de considerar suficiente modelar sus implicaciones evolutivas en el mundo biológico, la
CTMU establece una simetría teórico-modelo al proporcionar una mezcla sin fisuras de teoría y
universo en la que el propio mundo biológico puede ser "modelado" por incrustación física.
Esto por sí solo le da derecho a ocupar un lugar en el debate evolutivo.
Agradecimientos:
El autor desea dar las gracias a Gina Lynne LoSasso por la creación de los diagramas que
aparecen en este documento y por las numerosas y estimulantes discusiones y comentarios
sobre la presentación de este trabajo. También hay que dar las gracias a varias personas que
han apoyado y seguido mi trabajo y han aportado preguntas estimulantes que me han ayudado a
explicar la CTMU con el nivel de detalle actual. Entre otros, Robert North Seitz, John Chapman,
Angell O. de la Sierra, Mike Doyle, Phillip Hopp, Quinn Tyler Jackson, Evangelos Katsiolis, Paul
Kisak y Anthony Nolan.
2002 Christopher Michael Langan. Consulte la versión más reciente de este artículo en: www.ctmu.net
98
Notas
1 David Berlinski, "What Brings a World into Being?", Commentary, Vol. 111, nº 4, 2001, p. 17.
2Robert H. Wozniak, "Mente y cuerpo: René Descartes to William James",
http://serendip.brynmawr.edu/Mind/Table.html, 1996.
3 Michael J. Behe, La caja negra de Darwin, Nueva York: Touchstone Books, 1998.
4William A. Dembski, La inferencia del diseño: Eliminating Chance through Small Probabilities,
Cambridge University Press, 1998.
5De hecho, son idénticos hasta un isomorfismo más allá del cual la parte mental, al ser la más
completa de las dos, supera a la material.
6 Aunque el CTMU es por definición único hasta el isomorfismo con su propia sintaxis -este "auto
isomorfismo" es una de sus características estructurales definitivas-, nos abstendremos
debidamente de descartar sumariamente la posibilidad de que en el futuro otros puedan
presentar "modelos de retroalimentación temporal" autodeterminativos propios. No obstante, hay
que señalar que, dado que la MCU es intrínsecamente tautológica y se identifica
tautológicamente con su universo en el nivel más profundo de su existencia, y dado que éste es
el mismo universo real estudiado por la ciencia, cualquier otra teoría válida de la realidad se
equiparará necesariamente a la MCU hasta el isomorfismo; lo que añada vendrá por la vía de la
especificidad, no de la generalidad. Aunque otros ya han presentado teorías "cibernéticas" y
"teóricas de la información" de la cosmología, estas teorías se basan en las teorías estándar de
la información y la cibernética, por lo que heredan sus limitaciones explicativas con respecto a la
cosmología.
7Quienes esperan que el campo de la cosmología culmine en una gran reducción del universo
a pura información olvidan a veces que ello no haría sino transformar cierta pregunta, "¿qué
es el universo y de dónde viene?", en otra no menos enojosa, "¿qué es la información y de
dónde viene?".
8John A. Wheeler, "Beyond the Black Hole", en Some Strangeness in the Proportion: A
Centennial Symposium to Celebrate the Achievements of Albert Einstein, Woolf, H. (Ed.), pp.
341-375, Reading, Massachusetts: Addison-Welsley, 1980, pp. 341-375.
9John A. Wheeler, "Información, Física, Cuántica: The Search for Links", p. 8, en Complexity,
Entropy and the Physics of Information, SFI Studies in the Sciences of Complexity, vol. VIII,
Zurek, W.H. (Ed.), Addison-Wesley, 1990, pp. 3-28.
"From the Big Bang to the Big Crunch", entrevista a John A. Wheeler en Cosmic Search
10
15 ibídem, p. 8.
16 ibídem, p. 9.
99
17 ibídem, p. 9.
18 ibídem, p. 10.
19 ibídem, p. 10.
20 John A. Wheeler, Gravedad y espaciotiempo, Nueva York: Scientific American Library, 1990, cap.
6.
21 Wheeler, "Información, Física, Cuántica", p. 15.
22 ibídem, p. 16.
23 Ignoraremos por ahora el hecho de que si la mente es ilusoria, entonces también lo es toda
la filosofía, incluida la de Hume, y si la causalidad es ilusoria, entonces también lo es la forma
de causalidad representada por la implicación lógica, incluido el uso que hace Hume de la
implicación lógica para definir su filosofía.
24 Bertrand Russell, Historia de la filosofía occidental, Londres: Unwin Paperbacks, 1979.
25 Christopher M. Langan, "Of Trees, Quads, and God", Noesis-E, Vol. 1, No. 4, 2001.
26 Kurt Gödel, Sobre las proposiciones formalmente indecidibles de Principia Mathematica y
sistemas afines. Meltzer, B., trad., Nueva York: Basic Books, 1962.
27Para más información sobre el teorema de Lowenheim-Skolem y la tesis de Duhem-Quine,
véase Christopher M. Langan, "The Theory of Theories", Noesis-E, Vol. 2., nº 1, 2002.
28La interpretación de muchos mundos de la mecánica cuántica, al pretender eludir el problema
del colapso de la función de onda de la mecánica cuántica, pretende en efecto eludir también el
problema de la conciencia dividida. Sin embargo, dado que la propia MW se formula
necesariamente en términos de lógica de dos valores, el problema se reduce a cómo el
"hiperuniverso" asociado con la propia MW "colapsó" fuera del mar de todas las "meta-
realidades" potenciales. A este respecto, MW tiene poco que ofrecer en su propio nombre. Así
pues, MW carece de autocontención justificativa y, por tanto, no es base para una teoría
fundamental de la realidad. En cualquier caso, dado que la teoría que describimos en este
artículo está diseñada para abordar la realidad en su forma más básica y, por tanto, para
abordar todas las realidades concebibles como sus posibles instancias, sustituye a cualquier
explicación ofrecida únicamente por MW.
29Hace varios milenios, Aristóteles propuso la lógica (categórica) como las reglas formales del
razonamiento correcto. Ahora como entonces, el "razonamiento" es de naturaleza inferencial,
mental y subjetiva. Tras permanecer prácticamente inmutable hasta el siglo XIX, el campo de la
lógica comenzó a experimentar nuevos avances. Pero aunque este progreso ha sido
considerable, ha dejado esencialmente intacta la naturaleza inferencial, mental y subjetiva de la
lógica.
30Obsérvese que, aunque esto parece implicar que las 3 M son "axiomas" y, por tanto,
independientes, la premisa de la independencia axiomática es en sí misma un concepto
bastante endeble. En realidad, estos principios están estrechamente relacionados, en el sentido
de que, en cierta medida, pueden deducirse unos de otros en un contexto teórico de la realidad.
31En física, la expresión "principio de realidad" se ha asociado a veces con la idea de que la realidad
objetiva existe independientemente de la observación humana, al menos en la medida en que no
desaparece repentinamente cuando no se la observa directamente. Tal y como se utiliza en este
documento, la expresión "principio de realidad" debe interpretarse tal y como se describe en esta
sección, a menos que se indique lo contrario.
10
0
32Nota: la resolución tipotéorica de esta paradoja es incompleta; la resolución completa requiere
MU, una especie de "metasindifeonesis" que dote a la red infocognitiva del espaciotiempo de un
nivel de cierre superior.
10
1
33 Una regresión sindifónica conduce, en última instancia, a una sintaxis cerrada estable en la
que todos los términos se definen mutuamente; la definición mutua es lo que estabiliza y
confiere determinación interna (identificabilidad interna de los acontecimientos) al sistema a
través de la simetría sintáctica. Es decir, el cierre relacional ortogonal a la dimensión (temporal)
de la regresión equivale a la distribución de una identidad sistémica, y a menos que esta
identidad esté completamente definida, las identidades de los componentes del sistema no
pueden ser definidas o reconocidas por o con respecto a los demás. Así pues, la identidad
dinámica es una función de autoidentificación con dimensiones definitivas, descriptivas e
interpretativas.
34 Resulta tentador observar que "relatividad" significa aproximadamente lo mismo en la Teoría
General de la Relatividad que aquí. Es decir, utilizando un "espacio tangente" sintáctico-
distribuido, la estructura del espaciotiempo se define tensorialmente en términos de las masas y
posiciones relativas de sus propios contenidos materiales, lo que da lugar a una definición
intrínseca del espaciotiempo similar a la de MAP. Por desgracia, el formalismo básico de la RG,
la geometría diferencial, no es autónomo con respecto al tiempo; tal y como está formulado
actualmente, depende tácitamente de un medio de incrustación (conspansivo) que le
proporcione potencial temporal.
35 Lo que tal pregunta plantea realmente es "¿por qué existe la relación de habitación y
observación que se mantiene entre el observador/interrogador y el universo?". El Principio
Antrópico Débil se acerca a medias a una respuesta aplicando una función de selección
probabilística: "la relación ha sido lógicamente seleccionada por el hecho de que sólo ciertos
tipos de universo pueden albergar actos de observación y un observador como el interrogador".
Esto es correcto hasta donde llega, pero omite la fase generativa, preselectiva de la
explicación... la parte que da cuenta de la función de selección y del dominio al que se aplica.
En este sentido, la AMP se parece un poco a la selección natural: escarda bien el jardín, pero es
incapaz de hacer crecer una sola flor.
36Obsérvese que el principio M=R no afirma (por ejemplo) que los frutos de la imaginación
humana sean "reales", salvo como patrones de disparo neuronal sin relevancia necesaria para
nada fuera del cerebro, ni que podamos hacer que las cosas sean inmediatamente "reales" con
sólo pensar en ellas. El principio M=R se limita a decir que cuando la mente es el motor de la
cognición y la percepción, y estos procesos se consideran conjuntamente como un "lenguaje"
que obedece a reglas de sintaxis, esta sintaxis -las reglas de la cognición y la percepción- se
distribuye necesariamente sobre el perceptor y el percepto.
37Christopher M. Langan, "Introducción a la CTMU", Ubiquity, Vo.1, No.1, 1999. También
disponible en: http://www.megafoundation.org/CTMU.html
38 Arthur S. Eddington, The Expanding Universe, Cambridge University Press, 1933.
10
3
43 No todas las expresiones son proposiciones; las proposiciones son expresiones sin variables
libres (no cuantificadas) . Permitir la cuantificación de predicados unarios (de un solo lugar) y
tratarlos como individuos resulta en una generalización de los lenguajes elementales a una
clase de lenguajes más expresivos, los lenguajes monádicos de segundo orden. Otras
generalizaciones son posibles en esta línea.
44 Para que la inclusión de la utilidad, los qualia o los sentimientos no parezca "anticientífica",
basta con observar que sería mucho más anticientífico ignorar cosas cuya existencia se conoce
subjetivamente basándose en la suposición ilusoria y racionalmente injustificable de que la
subjetividad y los predicados subjetivos no desempeñan ningún papel en la autodefinición de la
realidad. En la medida en que la subjetividad se refiere meramente a las identidades intrínsecas
coherentes de los elementos de las relaciones objetivas, esto sería lógicamente absurdo. Pero
en cualquier caso, nuestro objetivo en este punto es meramente clasificar los elementos
básicos en términos de los cuales vemos el mundo , hayan o no demostrado hasta ahora ser
accesibles a la metodología empírica estándar, y esto significa reconocer la realidad de los
predicados cualitativos y emocionales y adjuntar las constantes no lógicas correspondientes a
la sintaxis SCSPL. Si los predicados QPS y ETS resultan ser reducibles a predicados
STOS/LMS más fundamentales, entonces muy bien; permitirá una conveniente reducción de la
sintaxis. Pero esto no es algo que pueda decidirse de antemano.
45 La sintaxis cognitivo-perceptiva consiste en (1) conjuntos, posets o tosets de atributos
(telones), (2) reglas perceptivas de atribución externa para asignar relaciones externas a telones,
(3) reglas cognitivas de atribución interna para la transición cognitiva (interna, no perceptiva) de
estados, y (4) leyes de dependencia y conjugación según las cuales las reglas perceptivas o
cognitivas de atribución externa o interna pueden o no actuar en un orden determinado o en
simultaneidad.
46 Para ver cómo puede reducirse beneficiosamente la información cuando todo salvo la
información es desinformativo por definición, basta con reconocer que la información no es una
proposición independiente; nunca se encuentra aparte de la sintaxis. De hecho, sólo se
"encuentra" algo mediante la adquisición sintáctica. Lo que sólo es reconocible como contenido
sintáctico requiere contención sintáctica, y sólo adquiere sentido cuando lo adquiere un
operador sintáctico capaz de mantener su estructura relacional; sin transducción atributiva, una
información no tiene nada que cuantificar. Esto implica que la información puede generalizarse
en términos de "lo que tiene en común con la sintaxis", a saber, la relación sindifónica entre
información y sintaxis.
47A estos efectos, la reducción puede entenderse como producción inversa. Como tal, es
esencial para el reconocimiento gramatical.
48Dado que la propagación de la luz es un fenómeno que depende de la expansión, c no
puede verse afectado por la impedancia o la manipulación de los fotones.
49 El Orden Implicado es un concepto defendido por el físico David Bohm en con su
interpretación de la mecánica cuántica. Utilizando la analogía de un holograma, Bohm propuso
una especie de autosimilaridad por la que "todo está envuelto en todo". Según Bohm, este
"orden implicado" es complementario de un "orden explicado", resultado de desplegarlo
mediante un proceso denominado "holomovimiento". Esto merece mención por su parecido
superficial con el despliegue conspansivo del estado a partir de la sintaxis en SCSPL, que
muestra su propia versión de hiperconectividad lógica, y la similitud entre hología y holografía.
Sin embargo, dado que CTMU se cruza sólo parcialmente con la teoría de Bohm, la analogía no
debería extenderse en exceso.
10
4