Langan_CTMU_0929021-1 es

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 104

El modelo cognitivo-teórico del universo:

Un nuevo tipo de teoría de la realidad

Christopher Michael Langan

Contenido

Introducción
Sobre teorías, modelos y falsas dicotomías
Determinación, indeterminación y la tercera opción
El futuro de la teoría de la realidad según John Wheeler
Algunos principios adicionales
Algunos antecedentes
Introducción al SCSPL
SCSPL como circuito autoexcitado
La CTMU y el diseño inteligente

Resumen: En la medida en que la ciencia es de naturaleza observacional o perceptiva, el objetivo de


proporcionar un modelo científico y un mecanismo para la evolución de sistemas complejos requiere, en
última instancia, una teoría de la realidad que la sustente y de la que la propia percepción sea el modelo (o
el mapa teoría-universo). Cuando la información es la moneda abstracta de la percepción, una teoría de
este tipo debe incorporar la teoría de la información al tiempo que amplía el concepto de información para
incorporar el autoprocesamiento reflexivo con el fin de lograr una descripción intrínseca (autocontenida) de
la realidad. Esta extensión está asociada a una formulación limitadora de la teoría de modelos que
identifica la realidad mental y física, lo que da lugar a una teoría de la realidad autogenerada
reflexivamente y automodelada, idéntica a su universo en el nivel sintáctico. Por la naturaleza de su
derivación, esta teoría, el Modelo Teórico Cognitivo del Universo o CTMU, puede considerarse una
extensión teórico-real supertautológica de la lógica. Uniendo la teoría de la realidad con una forma
avanzada de teoría del lenguaje computacional, el CTMU describe la realidad como un Lenguaje de
Autoprocesamiento Autoconfigurable o SCSPL, un lenguaje intrínseco reflexivo caracterizado no sólo por la
autorreferencia y la autodefinición recursiva, sino también por la autoconfiguración y la autoejecución
plenas (funcionalidad reflexiva de lectura-escritura). La realidad SCSPL encarna un monismo de doble
aspecto consistente en infocognición, información autotransductora que reside en elementos SCSPL
autorreconocibles denominados operadores sintácticos. La CTMU se identifica con la estructura de estos
operadores y, por tanto, con la sintaxis distributiva de su universo SCSPL automodelado, incluida la
gramática reflexiva mediante la cual el universo se refina a sí mismo a partir de la telesis no ligada o UBT,
un reino primordial de potencial infocognitivo libre de restricciones informativas. Bajo la guía de una forma
limitante (intrínseca) de principio antrópico llamado Principio Télico, el SCSPL evoluciona por recursividad
télica, configurando conjuntamente sintaxis y estado al tiempo que maximiza un parámetro generalizado de
autoselección y se ajusta sobre la marcha a condiciones internas que cambian libremente. SCSPL
relaciona espacio, tiempo y objeto mediante la dualidad conspansiva y la conspansión, un proceso SCSPL-
gramatical que presenta una alternancia entre fases duales de existencia asociadas con el diseño y la
actualización y relacionadas con la familiar dualidad onda-partícula de la mecánica cuántica. Al distribuir la
fase de diseño de la realidad sobre la fase de actualización, el espaciotiempo conspansivo también
proporciona un mecanismo distribuido para el Diseño Inteligente, adjuntando al principio restrictivo de la
selección natural un medio básico de generar información y complejidad. Al abordar la evolución física no
sólo a nivel biológico sino también cósmico, el CTMU resuelve las deficiencias y paradojas más evidentes
asociadas a los modelos discretos y continuos convencionales de la realidad, incluyendo la direccionalidad
temporal y la expansión cósmica acelerada, al tiempo que preserva prácticamente todas las ventajas
principales de los paradigmas científicos y matemáticos actuales.

2002 Christopher Michael Langan <[email protected]> Consulte la versión más reciente de este artículo en: www.ctmu.net
Introducción

Entre los avances recientes más apasionantes de la ciencia se encuentran la Teoría de la


Complejidad, la teoría de los sistemas autoorganizados, y la encarnación moderna de la
Teoría del Diseño Inteligente, que investiga la profunda relación entre la autoorganización y la
biología evolutiva en un contexto científico no cerrado de antemano a la causalidad
teleológica. En contra del tradicional reduccionismo físico de las ciencias duras, la teoría de la
complejidad ha dado lugar a una nueva tendencia, el reduccionismo informacional, que
sostiene que la base de la realidad no es la materia y la energía, sino la información. Por
desgracia, esta nueva forma de reduccionismo es tan problemática como la anterior. Como
escribe el matemático David Berlinski sobre los aspectos materiales e informacionales del
ADN: "Sabemos perfectamente lo que es el ADN: es una macromolécula y, por tanto, un
objeto material. Sabemos muy bien lo que consigue: aparentemente todo". ¿Están
equilibrados los dos lados de esta ecuación?". En términos más generales, Berlinski observa
que, dado que la información plasmada en una cadena de ADN o proteína no puede afectar a
la dinámica material de la realidad sin ser leída por un transductor material, la información
carece de sentido sin la materia.1

La relación entre reduccionismo físico e informacional es reveladora, ya que refleja directamente


el dualismo cartesiano mente-materia, fuente de varios siglos de controversia filosófica y
científica sobre la naturaleza de la realidad profunda.2 Mientras la materia y la información sigan
separadas, y los especialistas traten una como primaria y releguen tácitamente la otra a un
segundo plano, el dualismo seguirá vigente. En este sentido, la historia no hace más que
repetirse: si antes la mente y la materia se disputaban el estatus primario, ahora la materia
concreta compite con la información abstracta que representa abstractamente la materia y sus
relaciones extendidas. Pero aunque la abstracción formal y la descriptividad concreta de la
información parecen hacer de ella un compromiso digno entre mente y materia, el comentario de
Berlinski demuestra su insuficiencia como sustituto conceptual. Lo que se necesita ahora es, por
tanto, lo que se ha necesitado siempre: un marco conceptual en el que se haga explícita la
relación entre mente y materia, cognición e información. Este marco no sólo debe permitir la
disolución gradual de la división cartesiana entre mente y materia, sino también la construcción
de un puente lógico que atraviese la brecha explicativa resultante.

Matemáticamente, el marco teórico del Diseño Inteligente consiste en ciertos principios


definitivos que rigen la aplicación de la complejidad y la probabilidad al análisis de dos atributos
clave de los fenómenos evolutivos, la complejidad irreducible3 y la complejidad especificada.4
Por un lado, dado que las matemáticas de la probabilidad deben interpretarse causalmente para
tener sentido científico, y dado que las probabilidades están por tanto expresamente
relativizadas a escenarios causales específicos, es difícil asignar probabilidades definitivas a los
estados evolutivos en cualquier modelo que no apoye la reconstrucción y el análisis detallados
de vías causales específicas. Por otra parte, plantear la "improbabilidad absoluta" de un estado
evolutivo implica, en última instancia, la especificación de un modelo absoluto (global intrínseco)
con respecto al cual puedan determinarse desviaciones probabilísticas absolutas. Una pequeña
reflexión basta para informarnos de algunas de sus propiedades: debe ser derivable
racionalmente a partir de principios a priori y de naturaleza esencialmente tautológica, debe
identificar en algún nivel la materia y la información, y debe eliminar la brecha explicativa entre
los aspectos mentales y físicos de la realidad. Además, en consonancia con el nombre de lo que
se quiere modelar, debe incorporar de forma significativa los conceptos de inteligencia y diseño,
describiendo el universo como un sistema inteligentemente autodiseñado y autoorganizado.

¿Cómo hacerlo? En una palabra, con el lenguaje. Esto no significa simplemente que el
lenguaje deba utilizarse como herramienta para analizar la realidad, pues esto ya se ha hecho
innumerables veces con diversos grados de éxito. Tampoco significa que la realidad deba
considerarse como un lenguaje de máquina que funciona en una especie de gran ordenador.
Significa utilizar el lenguaje como un paradigma matemático en sí mismo. De todas las
estructuras matemáticas, el lenguaje es la más general, poderosa y necesaria. No sólo toda
teoría formal o de trabajo de la ciencia y las matemáticas es por definición un lenguaje, sino
que la ciencia y las matemáticas en su conjunto y en suma son lenguajes. Todo lo que puede
2
describirse o concebirse, incluida toda estructura, proceso o ley, es isomorfo a una descripción
o definición y, por tanto, puede considerarse un lenguaje, y toda criatura sensible

3
afirma constantemente la estructura lingüística de la naturaleza explotando el isomorfismo
sintáctico para percibirla, conceptualizarla y referirse a ella. Incluso la cognición y la percepción
son lenguajes basados en lo que Kant podría haber llamado "sintaxis fenoménica". Con la lógica
y las matemáticas entre sus ingredientes sintácticos más fundamentales, el lenguaje define la
estructura misma de la información.
Esto es más que una verdad empírica; es una necesidad racional y científica.

El hecho de que las leyes de la naturaleza sean un lenguaje reviste especial interés para los
científicos naturales. Hasta cierto punto, la naturaleza es regular; los patrones básicos o
aspectos generales de la estructura en términos de los cuales se aprehende, hayan sido o no
identificados categóricamente, son sus "leyes". La existencia de estas leyes viene dada por la
estabilidad de la percepción. Dado que estos patrones repetitivos o leyes universales describen
simultáneamente múltiples instancias o estados de la naturaleza, pueden considerarse como
"instrucciones" distribuidas de las que las autoinstanciaciones de la naturaleza no pueden
desviarse; así, forman un "lenguaje de control" a través del cual la naturaleza regula sus
autoinstanciaciones. Este lenguaje de control no es del tipo habitual, ya que de algún modo está
incorporado en el tejido mismo de la realidad y parece anular las limitaciones conocidas de los
sistemas formales. Además, es profundamente reflexivo y autónomo con respecto a la
configuración, la ejecución y las operaciones de lectura y escritura. Sólo unos pocos y atrevidos
han estado dispuestos a considerar cómo podría funcionar... a preguntarse en qué parte de la
realidad podrían residir las leyes, cómo podrían expresarse y aplicarse, por qué y cómo
s u r g i e r o n , y cómo se mantienen su coherencia y universalidad. Aunque es evidente que
estas cuestiones son de gran interés científico, la ciencia por sí sola es lógicamente inadecuada
para responderlas; se necesita un nuevo marco explicativo. Este artículo describe lo que el autor
considera el marco más prometedor en los términos más sencillos y directos posibles.

Como nota de indulgencia, siempre ha sido reconfortante la creencia de que los métodos
híbridos empírico-matemáticos estándar de la física y la cosmología bastarán en última instancia
para revelar el verdadero corazón de la naturaleza. Sin embargo, ha habido numerosas señales
de que puede haber llegado el momento de probar un nuevo enfoque. Con los verdaderos
creyentes impávidos ante las limitaciones explicativas (matemáticamente factuales) de los viejos
métodos, debemos empatizar, por supuesto; es difícil cuestionar las inversiones previas de uno
cuando ya se ha invertido toda la fe que se tiene. Pero la ciencia y la filosofía no progresan
considerando sus inversiones pasadas como fines en sí mismas; el objetivo es siempre
preservar lo que hay de valioso en los métodos antiguos al tiempo que se adosan nuevos
métodos que refinan su significado y amplían sus horizontes. El nuevo enfoque que vamos a
explorar en este artículo, que podría resumirse de forma pintoresca como "la teoría de la
realidad se une a la teoría del lenguaje y dan lugar a una síntesis", tiene la ventaja de que deja
prácticamente intacta la imagen actual de la realidad. Se limita a crear una imagen lógica
especular de la imagen actual (su dual conspansivo), fusiona las mitades simétricas de la
imagen resultante e intenta extraer implicaciones significativas.
La ciencia, tal y como la conocemos ahora, ha cambiado poco a cambio de lo que, si el destino
nos sonríe, puede resultar ser un gran avance en profundidad, importancia y poder explicativo.

En este sentido, les agradezco su amable atención y les deseo un fructífero viaje.

Sobre teorías, modelos y falsas dicotomías

Resulta casi embarazoso afirmar que la ciencia está en crisis... no porque no sea cierto, sino
porque se ha convertido en un tópico que con demasiada frecuencia va acompañado de escasa
o nula perspicacia correctora. A pesar de los magníficos logros de la ciencia, sus grandes
ambiciones hace tiempo que consiguieron llevar sus modelos y principios organizativos
tradicionales más allá de sus límites explicativos. En su búsqueda de explicaciones cada vez
más profundas y amplias, la ciencia ha llegado a un punto en el que ya no puede negar la
existencia de dificultades conceptuales insolubles derivadas de la insuficiencia explicativa de
sus modelos conceptuales fundamentales de la realidad. Esto ha dado lugar a una nueva
disciplina conocida como teoría de la realidad, el estudio de la naturaleza de la realidad en su
4
sentido más amplio.
El objetivo general de la teoría de la realidad es proporcionar nuevos modelos y nuevos
paradigmas que permitan comprender la realidad y restablecer la coherencia de la ciencia a
medida que se profundiza en ella y se amplía su alcance.

5
La corriente principal de la teoría de la realidad cuenta entre sus focos más candentes la
interpretación de la teoría cuántica y su reconciliación con la física clásica, el estudio de la
conciencia subjetiva y su relación con la realidad material objetiva, la reconciliación de la ciencia
y las matemáticas, la teoría de la complejidad, la cosmología y ramas afines de la ciencia, las
matemáticas, la filosofía y la teología. Pero en un sentido integrado, se encuentra actualmente
en un modo exploratorio, ocupándose de la búsqueda de un marco conceptual general en el que
desarrollar una teoría y un modelo más específicos de la realidad capaces de resolver las
paradojas e incoherencias conceptuales que plagan sus diversos campos de interés (donde un
modelo se define técnicamente como una interpretación válida de una teoría en su universo de
referencia). Debido al alcance universal de la teoría de la realidad, está sujeta a exigencias
únicas, aunque rara vez reconocidas; por ejemplo, puesto que es por definición una teoría
universal de todo lo que es real, debe contener por definición sus reglas de interpretación del
mundo real. Es decir, la teoría de la realidad debe contener su propio modelo y efectuar su
propia correspondencia autointerpretativa con él, y debe ajustarse a las implicaciones de este
requisito. Esta capacidad de "automodelación" es un criterio primordial del marco requerido.

Entre los teóricos de la realidad hay investigadores de casi todas las disciplinas científicas. A
medida que las ciencias físicas han ido adoptando una visión mecánica cuántica de la realidad y
que la ciencia en general se ha ido aficionando a la simulación por ordenador como herramienta
experimental, el modelo continuo tradicional de la física clásica ha ido perdiendo terreno frente a
una nueva clase de modelos en los que los conceptos de información y computación son
esenciales.
Denominados "modelos discretos", describen la realidad en términos de bits, cuantos, sucesos
cuánticos, operaciones computacionales y otras unidades discretas relacionadas
recursivamente. Mientras que los modelos continuistas se basan en la noción de un continuo, un
todo unificado extensible con uno o más parámetros de distancia que puede subdividirse
infinitamente de forma que dos puntos distintos cualesquiera estén separados por un número
infinito de puntos intermedios, los modelos discretos se distinguen por reconocer de forma
realista que es imposible describir o definir un cambio o separación de cualquier forma que no
implique un salto finito repentino en algún parámetro.

Desgraciadamente, las ventajas de los modelos discretos, que están recibiendo una
consideración cada vez más seria por parte de las comunidades científica y filosófica, se ven
superadas por ciertas deficiencias básicas. No sólo presentan problemas de escala y no
localidad asociados a su "hardware de visualización", sino que son inadecuados por sí mismos
para generar la infraestructura conceptual necesaria para explicar el medio, dispositivo o
conjunto en el que evolucionan, o sus estados iniciales y la programación de la transición de
estados. Además, siguen anclados en el materialismo, el objetivismo y el dualismo cartesiano,
cada uno de los cuales ha demostrado ser un obstáculo para el desarrollo de una explicación
exhaustiva de la realidad. El materialismo excluye arbitrariamente la posibilidad de que la
realidad tenga un aspecto no material significativo, el objetivismo excluye arbitrariamente la
posibilidad de que la realidad tenga un aspecto subjetivo significativo y, aunque el dualismo
cartesiano técnicamente no excluye ninguno de los dos, niega arbitrariamente que los lados
mental y material, o subjetivo y objetivo, de la realidad compartan una sustancia común.5

Casi se podría tener la impresión de que las dos únicas opciones disponibles son el modelo
clásico, al que la teoría cuántica se ha fijado con aproximadamente el mismo grado de
contundencia que los cuernos a una liebre, y los nuevos modelos discretos, que pretenden estar
más en consonancia con la teoría cuántica, pero que se quedan en el camino hacia el nuevo tipo
de cosmología cuántica que portentosamente parecen prometer. Y es que tales afirmaciones
muestran una ironía inconfundible: ¡la realidad clásica es precisamente aquella sobre la que se
definen la información y la computación! Al igual que la propia realidad clásica, una entidad bien
definida incapaz de dar cuenta de su propia génesis, la información y la computación son
aspectos bien definidos y no autogenerativos de la realidad tal y como se nos presenta
observacionalmente en una fase avanzada de su existencia. Por tanto, suscitan las mismas
preguntas que la realidad clásica: ¿cómo y por qué se definieron y generaron originalmente? Sin
una respuesta a esta pregunta, poco se puede ganar sustituyendo un tipo de realidad por el otro.

6
Algunos se habrán sentido, al ver la historia de las Grandes Teorías y los Nuevos Paradigmas
desarrollarse en los últimos años, como si les estuvieran obligando a ver el mismo programa, o a
leer la misma novela, mil veces en tediosa sucesión sin más que una pequeña revisión ocasional
de

7
trama o personaje. Sin embargo, existe una tercera alternativa que hasta ahora ha permanecido
en segundo plano. Aporta exactamente lo que se necesita a la luz de cualquier tesis y antítesis:
síntesis. Esta síntesis da lugar a una nueva clase de modelo(s)6 que conserva las mejores
características de tesis y antítesis, continuum y quantum, uniéndolas mediante principios
generales y preferiblemente evidentes. Este artículo presenta esta nueva clase a través de un
único ejemplo, el Modelo Cognitivo-Teórico del Universo (CTMU).

Determinación, indeterminación y tercera opción

Al igual que las matemáticas, la ciencia y la filosofía de las que proceden, los modelos clásicos
continuistas y modernos discretos de la realidad suelen admitir exactamente dos modos de
determinación: la causalidad externa y la acausalidad o "aleatoriedad". Dado un objeto,
acontecimiento, conjunto o proceso, se suele suponer que ha surgido de una de estas dos
maneras o de ambas: (1) su existencia se debe a algo previo y externo a él; (2) no tiene causa y
surgió espontáneamente y sin sentido de la nada, como por arte de magia. Lo mismo ocurre con
su comportamiento: o bien está controlado por leyes invariantes con respecto a él y, por tanto,
existencialmente externas a él (aunque lo controlen a través de su estructura y propiedades
intrínsecas), o bien se comporta de forma totalmente aleatoria e incontrolada. Esto ha dado lugar
a una dicotomía: determinismo frente a aleatoriedad, o ausencia total de causalidad frente a
causalidad por leyes que son, en última instancia, independientes de la entidad determinada.

Determinación e indeterminación... a primera vista, no parece haber término medio. Los


acontecimientos están conectados causalmente o no lo están, y si no lo están, el futuro parece
totalmente independiente del pasado. O utilizamos la causalidad para unir los puntos y dibujar
una imagen coherente del tiempo, o nos conformamos con una dispersión aleatoria de puntos
independientes sin patrón espacial o temporal y, por tanto, sin sentido. A riesgo de quedarnos
cortos, los efectos filosóficos de esta supuesta dicotomía han sido corrosivos en extremo. Ningún
universo que exista o evolucione estrictamente en función de la determinación externa, el azar o
una alternancia de ambos puede ofrecer mucho sentido. Cuando la libertad y la voluntad son
irrelevantes, también lo son gran parte de la experiencia y la individualidad humanas.

Pero, después de todo, existe otra posibilidad: la autodeterminación. La autodeterminación es


como un límite tortuoso que separa los polos de la dicotomía anterior... un límite reflexivo y, por
tanto, cerrado, en cuya formación no intervienen ni leyes preexistentes ni una estructura externa.
Por tanto, es el tipo de atribución causal adecuado para un sistema perfectamente
autocontenido. La autodeterminación es un concepto profundo pero sutil, debido en gran parte al
hecho de que, a diferencia de la determinación o la aleatoriedad, es una fuente de significado de
buena fe. Cuando un sistema determina su propia composición, propiedades y evolución
independientemente de leyes o estructuras externas, puede determinar su propio significado y
garantizar, mediante su autoconfiguración, que sus habitantes estén implicados de forma crucial
en él.

Diagrama 1: 1. Indeterminación 2. Determinación externa 3a. Autodeterminación 3b. Autodeterminación


intrínseca (El aspecto efectual del objeto o suceso simplemente se ha trasladado al interior del aspecto causal,
permitiendo la internalización de la flecha azul de la determinación y haciendo que la causalidad sea
endomórfica).

8
Si la determinación corresponde a una flecha de causalidad que apunta a un acontecimiento
procedente de un medio circundante, la indeterminación corresponde a la ausencia total de
flecha (acausalidad), y la autodeterminación a una flecha en bucle o a un complejo de flechas
que implican algún tipo de retroalimentación. Pero la retroalimentación cibernética, que implica la
transmisión de información entre controladores y entidades reguladas a través de un medio
conductor o transmisor, carece de sentido cuando tales entidades no existen todavía y cuando
no se ha proporcionado ningún protocolo sensorial o de actuación. Con respecto al origen de
cualquier sistema autodeterminado y perfectamente autónomo, la retroalimentación es de
naturaleza ontológica y, por tanto, más que cibernética. En consecuencia, la retroalimentación
ontológica merece ser descrita como "precibernética" o "metacibernética". De hecho, debido a su
relación particularmente estrecha, las teorías de la información, la computación y la cibernética
están todas en línea para una extensión convergente... una extensión que puede, en un contexto
de teoría de la realidad, sentar muchas de las bases para una extensión convergente de todo lo
que cubren sus respectivos formalismos.7

La retroalimentación ordinaria, que describe la evolución de los sistemas mecánicos (y, con
algo menos de éxito, biológicos), es cíclica o recursiva. El sistema y sus componentes
recurren repetidamente a estructuras internas, rutinas y mecanismos de accionamiento para
adquirir información, generar la información interna correspondiente, comunicar y procesar
internamente esta información y evolucionar a los estados apropiados a la luz de la
información y la programación. Sin embargo, cuando se trata de describir la evolución de un
sistema a partir de un estado en el que no hay información ni programación (sintaxis de
procesamiento de la información) en absoluto, se requiere un nuevo tipo de retroalimentación:
la retroalimentación télica.

Diagrama 2: El diagrama superior ilustra la retroalimentación cibernética ordinaria entre dos transductores de
información que intercambian y actúan sobre una información que refleja sus estados internos. La estructura y el
comportamiento de cada transductor se ajustan a una sintaxis, o conjunto de reglas estructurales y funcionales
que determinan cómo se comporta ante una entrada dada. En la medida en que cada transductor es determinista
o no determinista (dentro de los límites de la restricción sintáctica), el sistema es determinista o "aleatorio hasta la
determinación"; no hay ninguna disposición para la autocausalidad por debajo del nivel sistémico. El diagrama
inferior, que se aplica a los sistemas autodiseñados coherentes, ilustra una situación en la que la sintaxis y el
estado se determinan en tándem de acuerdo con una función de utilidad generalizada que asigna valores
diferenciales pero intrínsecamente escalonados a varias relaciones sintaxis-estado posibles. Una combinación de
estos dos escenarios se ilustra parcialmente en el diagrama superior mediante las sombras grises dentro de cada
transductor.

La moneda de cambio de la retroalimentación télica es un parámetro cuantificable de


9
autoselección, la utilidad generalizada, una propiedad generalizada de la ley y el estado en
cuya maximización experimentan un refinamiento mutuo (obsérvese que la utilidad
generalizada es autodescriptiva o autóloga, definida intrínseca y retroactivamente dentro del
sistema, y "preinformativa" en el sentido de que no asigna ninguna

10
propiedad específica a cualquier objeto específico). Mediante la retroalimentación télica, un
sistema se autoconfigura retroactivamente aplicando reflexivamente una "función de utilidad
generalizada" a su potencial existencial interno o a sus futuros posibles. En efecto, el sistema se
trae a sí mismo a la existencia como un medio de comunicación atemporal entre su pasado y su
futuro por el que la ley y el estado, la sintaxis y el contenido informativo, se generan y refinan
mutuamente a través del tiempo para maximizar la autoutilidad sistémica total. Esto define una
situación en la que la verdadera identidad temporal del sistema es un punto distribuido de
equilibrio temporal que está a la vez entre el pasado y el futuro y los incluye. En este sentido, el
sistema es atemporal.

Un sistema que evoluciona por medio de la recursividad télica -y, en última instancia, todo
sistema debe ser o estar integrado en un sistema de este tipo como condición de existencia- no
es meramente computacional, sino protocomputacional. Es decir, su nivel primario de
procesamiento configura su nivel secundario (computacional e informacional) de procesamiento
mediante la recursividad télica. La recursividad télica puede considerarse el mecanismo
autodeterminativo no sólo de la cosmogonía, sino de una forma natural y científica de teleología.

Sin embargo, antes de profundizar en estas ideas, asistamos a una pequeña sesión de
orientación basada en la visión notablemente penetrante de John Archibald Wheeler, científico
preeminente y teórico de la realidad cuyo nombre es prácticamente sinónimo de física
moderna.

El futuro de la teoría de la realidad según John Wheeler

En 1979, el célebre físico John Wheeler, tras acuñar la expresión "agujero negro", le dio un buen
uso filosófico en el título de un artículo exploratorio, Beyond the Black Hole (Más allá del agujero
negro),8 , en el que describe el universo como un circuito autoexcitado. El artículo incluye una
ilustración en la que un lado de una U mayúscula, que aparentemente representa el Universo,
está dotado de un ojo grande y bastante inteligente que observa atentamente el otro lado, que
aparentemente adquiere mediante la observación como información sensorial. Por su ubicación,
el ojo representa el aspecto sensorial o cognitivo de la realidad, tal vez incluso un espectador
humano dentro del universo, mientras que el objetivo perceptivo del ojo representa el aspecto
informativo de la realidad. En virtud de estos aspectos complementarios, parece que el universo
puede describirse en cierto sentido, aunque no necesariamente en el de uso común, como
"consciente" e "introspectivo"... quizá incluso "infocognitivo".

Diagrama 3: El Universo como circuito autoexcitado. Haga clic para ver la animación [Diagrama adaptado
de Wheeler, J. A., "Beyond the Black Hole", en Some Strangeness in the Proportion: A Centennial Symposium to
Celebrate the Achievments of Albert Einstein, Woolf, H. (Ed.), Addison-Welsley, 1980, p. 362].

Wheeler, representante eminente y muy capaz de quienes conocen las ventajas y deficiencias de
nuestros modelos actuales de la realidad, no llegó a la ilustración dada como una especulación
11
aislada. En conjunción con varios otros conceptos de Wheeler, el Universo Participativo, la Ley

12
sin Ley e It from Bit, el circuito autoexcitado equivale a un programa preliminar pero bien
meditado para describir el universo físico. Según su mandato, la verdadera descripción de la
realidad debe poseer dos características novedosas que no se encuentran en ningún paradigma
dominante: (1) reflexividad estructural y dinámica global o "circuito autoexcitado", con la
percepción como parte integrante de la función de autorreconocimiento de la realidad; (2)
equivalencia materia-información, una identificación (hasta el isomorfismo) de la realidad física
concreta con la información, la moneda abstracta de la percepción.
En conjunto, estas características constituyen una extensión cosmológica de la cibernética o, lo que
es lo mismo, una extensión metacibernética de la cosmología.

Wheeler caracteriza estos cuatro conceptos del siguiente modo:

El circuito autoexcitado: Un universo participativo es un circuito autoexcitado en el sentido


de que implica a los observadores en una retroalimentación (perceptiva, ontológica). Es un
"bucle lógico" en el que "la física da lugar a la participación del observador; la participación
del observador da lugar a la información; y la información da lugar a la física".9

El universo participativo: Los procesos cognitivos y perceptivos de los observadores forman


parte integrante de la retroalimentación autoexcitativa de la realidad. Así lo afirma el Principio
Participativo (o Principio Antrópico Participativo), que Wheeler describe informalmente de la
siguiente manera: "Más fuerte que el Principio Antrópico es lo que yo podría llamar el Principio
Participativo. Según éste, ni siquiera podríamos imaginar un universo que no contuviera
observadores en algún lugar y durante algún tiempo, porque los propios materiales de
construcción del universo son estos actos de participación de los observadores. ... Este principio
participativo toma por fundamento el punto absolutamente central de la cuántica: ningún
fenómeno elemental es un fenómeno hasta que es un fenómeno observado (o registrado)" [el
subrayado es nuestro]. Obsérvese que, en cierto nivel de generalidad, la última frase identifica la
observación con el registro y, por tanto, equipara implícitamente el reconocimiento humano y el
mecánico: "...un fenómeno observado (o registrado)" [el subrayado es nuestro].10

Ley sin ley / Orden a partir del desorden: Concisamente, nada puede darse por supuesto
cuando se trata de cosmogonía. En palabras del profesor Wheeler: "Para mí, el mayor
descubrimiento aún por venir será descubrir cómo este universo, surgido de un Big Bang,
desarrolló sus leyes de funcionamiento. Yo llamo a esto 'Ley sin Ley' [u 'Orden a partir del
Desorden'] (...) imagínese el universo con todas sus regularidades y sus leyes surgiendo de algo
totalmente desordenado, desordenado y aleatorio... Si usted fuera el Señor construyendo el
universo, ¿cómo lo habría hecho? Es inspirador leer la vida de Charles Darwin y pensar cómo la
división de los reinos vegetal y animal, toda esta miríada de orden, se produjo a través de los
milagros de la evolución, la selección natural y la mutación fortuita. Para mí es un indicio
maravilloso de que se puede obtener orden partiendo del desorden".11

Desde el bit: La realidad se educa y/o se produce a sí misma en forma de información que
reside en los sucesos cuánticos. Como resume Wheeler en su artículo Information, Physics,
Quantum: The Search for Links, "...toda cantidad física, todo ello, deriva su significado último de
bits, indicaciones binarias de sí o no...". A continuación, analiza detenidamente este concepto,
ofreciendo tres preguntas, cuatro "noes" y cinco "pistas" sobre el carácter cuántico-informacional
de la realidad. Las preguntas son las siguientes (1) ¿De dónde viene la existencia? (2) ¿Por qué
lo cuántico? (3) ¿Cómo surge el "mundo único" a partir de muchos observadores-participantes?
Los "no", seductores escollos que hay que evitar para responder a las tres preguntas, incluyen
que no hay torre de tortugas, ni leyes, ni continuo, ni espacio ni tiempo.
Y las pistas, que iluminan el camino hacia las verdaderas respuestas, incluyen el límite de un límite
es cero; ¿No hay pregunta? No hay respuesta!; el Principio Supercopernicano; "conciencia"
(incluidas las comillas); y más es diferente.12

A continuación expondremos brevemente estas cuestiones, precauciones e indicios.

¿Cómo surge la existencia? El impulso ontológico y cosmológico de esta pregunta es obvio;


de alguna forma, ha atormentado a los filósofos desde tiempos inmemoriales. Tal como la
13
interpreta Wheeler, conduce a cuatro conclusiones inevitables. "(1) El mundo no puede ser una
máquina gigantesca, gobernada por cualquier pre

14
ley física del continuo establecida. (2) En el nivel microscópico no existe tal cosa como espacio
o tiempo o continuo espaciotemporal. (3) La familiar función de probabilidad o funcional, y la
ecuación de onda o ecuación de onda funcional, de la teoría cuántica estándar proporcionan
meras idealizaciones del continuo y, por esta circunstancia, ocultan la fuente teórico-
informacional de la que derivan. (4) Ningún elemento en la descripción de la física se muestra
más cercano a lo primordial que el fenómeno cuántico elemental, es decir, el acto elemental
mediado por un dispositivo de plantear una pregunta física de sí o no y obtener una respuesta o,
en resumen, el acto elemental de participación del observador. Dicho de otro modo, toda
cantidad física, todo ello, deriva su significado último de los bits, indicaciones binarias de sí o no,
una conclusión que personificamos en la frase ello a partir del bit". 13

¿Por qué lo cuántico? ¿Por qué el universo se compone de sucesos cuánticos aparentemente
propter hoc no deterministas, pero post hoc informacionales? Como observa Wheeler, "la física
cuántica requiere una nueva visión de la realidad".14 ¿Cuál es, entonces, la relación lógica
exacta entre lo cuántico y la nueva visión de la realidad que exige? ¿Cuál es esta nueva visión y
cómo encaja la cuántica en ella?

¿Cómo surge "un mundo" a partir de muchos observadores-participantes? En la medida


en que el término "observadores-participantes" engloba a científicos y otros seres humanos,
esta pregunta invita a una interpretación casi antropológica. ¿Por qué debería mostrar unidad
estructural y nomológica un universo formado por observadores separados con agendas e
imperativos de supervivencia a veces contradictorios? Si los observadores son capaces de
crear acontecimientos dentro del múltiple unitario global de su universo común, ¿por qué no
iban a hacerlo estrictamente para sí mismos, cada uno a su manera?
universo, y nunca se encontrarán? Cuando el concepto de observador-participante se generaliza
para incluir sistemas no antrópicos de transmisión de información, ¿qué es lo que mantiene
unidos a todos estos sistemas en una única realidad unificada?

Ninguna torre de tortugas: Tomado prestado de William James, este aforismo significa
"ninguna regresión infinita a dominios y principios causales siempre anteriores". Podríamos
equipararlo a una versión actualizada de un conocido aforismo atribuido a Harry Truman: "The
explanatory buck stops here", donde aquí se refiere a la realidad que habitamos y observamos.
A esto Wheeler añade una idea crucial: "A la infinitud no hay más alternativa evidente que un
bucle, tal como: la física da lugar a la participación del observador; la participación del
observador da lugar a la información; y la información da lugar a la física".15 Sólo un bucle
ontológico de este tipo es capaz de formar un lazo lo suficientemente ancho y fuerte para el lazo
teórico de la realidad; la tarea que tenemos entre manos es, por tanto, encontrar una manera de
fabricarlo y un medio en el que esgrimirlo.

Sin leyes: Como afirma Wheeler, "El universo debe haber llegado a existir... sin siquiera un plan
preexistente... sólo un principio de organización que no es ninguna organización parecería
ofrecerse". 16 O para reiterar: "El mundo no puede ser una máquina gigante, gobernada por
ninguna ley física continua preestablecida".

No hay continuo: El venerable continuo del análisis y la mecánica es una quimera matemática
y física. (Asociado habitualmente al conjunto de los números reales, un continuo es un todo
unificado extensible con un parámetro de distancia que puede subdividirse infinitamente de tal
manera que dos puntos distintos cualesquiera están separados por un número infinito de puntos
intermedios). Como dice Wheeler "Medio siglo de desarrollo en la esfera de la lógica matemática
ha dejado claro que no hay pruebas que apoyen la creencia en el carácter existencial del
continuo numérico".17
Algunos números, por ejemplo los irracionales como √2, no pueden calcularse con precisión y, por
tanto, no
corresponden a cualquier lugar físicamente significativo de una recta numérica o trayectoria física; se
sólo tienen una existencia abstracta.

No hay espacio ni tiempo: De nuevo, "a nivel microscópico no existen ni el espacio ni el tiempo
ni el continuo espaciotemporal". A nivel submicroscópico, el Principio de Incertidumbre de
15
Heisenberg convierte el espaciotiempo en una "espuma cuántica" aparentemente caótica,
poniendo en duda la conectividad del espacio y la ordinalidad del tiempo. Wheeler cita a Einstein
en clave kantiana: "El tiempo y el espacio son modos por

16
que pensamos, y no condiciones en las que vivimos", considerando estos modos como
derivables de una teoría propia de la realidad como funciones idealizadas de un continuo
idealizado: "No introduciremos el tiempo en ningún relato profundo de la existencia. Debemos
derivar el tiempo -y el tiempo sólo en la idealización del continuo- fuera de él. Lo mismo ocurre
con el espacio".18

El límite de un límite es cero: En esencia, esta noción intuitiva de la topología algebraica dice
que las estructuras cerradas incorporan un cierto tipo de simetría "autocancelativa". Esto puede
ilustrarse en tres dimensiones mediante un tetraedro, cuyo "límite" simplicial incorpora sus cuatro
caras triangulares equiláteras. Para encontrar el límite de esta frontera, uno mediría las aristas
orientadas en el sentido de las agujas del reloj o en sentido contrario alrededor de cada cara,
midiendo así cada arista del tetraedro dos veces en direcciones opuestas. Dado que la suma de
las mediciones ahora se cancela a 0 en cada arista, el límite del límite del tetraedro es cero. Esta
propiedad resulta tener amplias aplicaciones en física, particularmente en la teoría de campos,
en lo que se refiere al "agarre" mutuo de la materia sobre el espacio y del espacio sobre la
materia (o de forma menos colorista, la relación del espacio y la materia). En opinión de Wheeler,
su ubicuidad "inspira la esperanza de que algún día completaremos las matemáticas de la física
y derivaremos todo de la nada, toda la ley de la no ley".19 Así, está estrechamente relacionada
con la ley sin ley y la llamada creación ex nihilo.

Diagrama 4: 1a: El límite de un segmento de línea unidimensional dirigida consiste en sus puntos terminales de
dimensión 0, que separan la línea de su complemento (el espacio que rodea a la línea). El punto inicial
representa la "deuda" necesaria para iniciar la línea y, por tanto, se le da un valor de -1, mientras que el punto
terminal representa la "recompensa" por completar la línea y se le da un valor de +1. Cuando los puntos inicial y
terminal de la recta se identifican como indica la flecha curva, el resultado es una recta cerrada que limita un
disco plano (1b). Como ahora los puntos extremos coinciden, suman 0 y ya no separan la recta de su
complemento; así, el límite 0-dimensional del límite 1-dimensional del disco 2-dimensional es 0. 2a: Un área
triangular puede descomponerse en 4 áreas triangulares más pequeñas. Introduciendo una orientación uniforme
(en este caso, en el sentido de las agujas del reloj) a las áreas (flechas rojas) se imparte la misma orientación al
perímetro exterior (flechas azules exteriores), recreando la situación de 1b (obsérvese que las flechas azules
junto a cada arista interior apuntan en direcciones opuestas y, por tanto, se anulan). De nuevo, los puntos inicial y
terminal del perímetro coinciden y se cancelan a 0 independientemente de donde se encuentren. Cuando los
segmentos adyacentes del perímetro se identifican como indican las flechas exteriores, el triángulo se pliega en
un tetraedro (2b). Sus caras forman una frontera bidimensional cerrada que separa su interior tridimensional de
su exterior, mientras que sus aristas forman una frontera unidimensional cerrada que separa sus caras entre sí.
Pero ahora las flechas azules se anulan en cada arista, y el límite unidimensional del límite bidimensional del
tetraedro es 0. Así que tanto para el disco 2D como para el tetraedro 3D, el límite del límite es 0. Aunque los
físicos suelen utilizar esta regla para explicar la conservación de la energía-momento (o como Wheeler la llama,
"momenergía"20), puede interpretarse de forma más general con respecto a la información y la restricción, o el
estado y la sintaxis. Es decir, el límite es análogo a una restricción que separa un atributo interior que satisface la
restricción de un atributo exterior complementario, creando así una distinción informacional.

¿No hay pregunta? No hay respuesta. En un experimento cuántico, el aparato de medida y su


colocación corresponden a una pregunta, y el resultado a su respuesta. La existencia de la
respuesta, consistente en información sobre el estado, está supeditada a la formulación de la
pregunta (o a la realización de la medición), y el tipo de respuesta recibida depende del tipo de
pregunta formulada y de la forma en que se plantea. Así pues, el mundo se compone de

17
eventos de medición en los que los objetos intercambian información, uno de los cuales, o
ambos, "formulan una pregunta" y uno de los cuales, o ambos, "formulan una respuesta".

18
que "dan una respuesta". La pregunta y la respuesta, el estímulo y la observación de un
acontecimiento, no pueden separarse en el plano ontológico, y no pueden sustraerse a la
influencia del entorno. En la raíz de este criterio se encuentran la incertidumbre cuántica y la
complementariedad, piedras angulares de la mecánica cuántica.

El principio supercopernicano: Al igual que Copérnico desplazó la geocentricidad por la


heliocentricidad, mostrando por extensión que ningún lugar concreto del universo es especial y
repudiando así el "aquí-centrismo", el Principio Supercopernicano dice que ningún punto
concreto del tiempo es especial, repudiando el "ahora-centrismo". Esencialmente, esto significa
que cuando la participación del observador funciona retroactivamente, la carga participativa se
distribuye efectivamente a lo largo del tiempo. Así, aunque el "tamaño de bit" del universo es
demasiado grande para haber sido generado completamente por los observadores-participantes
que han existido hasta ahora, las generaciones futuras de observadores-participantes, que
posiblemente representen modos de observador-participación distintos del asociado con la
observación humana, han estado y están pesando desde el futuro. (La relevancia de este
principio para el Principio Antrópico Participativo es evidente).

"Conciencia": Wheeler subraya la dificultad de establecer una distinción general entre la forma
de procesamiento de la información característica de los seres humanos, y la característica de
diversos sistemas y dispositivos complejos que pueden o no ser "conscientes". "La línea entre lo
inconsciente y lo consciente empieza a difuminarse...", afirma; "Puede que algún día tengamos
que ampliar el alcance de lo que entendemos por un 'quién'". El término quién, sugiere, es
demasiado específico para el hombre, la vida y la conciencia; sus connotaciones antrópicas son
anticopernicanas, mientras que los conceptos de vida y conciencia están sujetos a revisión a
medida que avanza la ciencia. "Parecería más razonable", sugiere, "descartar por el momento
los matices semánticos de 'quién' y explorar y explotar las ideas que se pueden extraer de las
frases 'comunicación' y 'comunicación empleada para establecer significado'".21

Más es diferente: el potencial de complejidad aumenta con la cardinalidad; con un gran número
de elementos viene la variedad combinatoria y el potencial para el tipo de estructura lógica
multinivel que tipifica tanto a los organismos biológicos como a los ordenadores modernos. Éste
es un precepto fundamental de la teoría de la complejidad. Wheeler plantea una pregunta:
"¿Comprenderemos algún día el tiempo y el espacio y todas las demás características que
distinguen a la física -y a la propia existencia- como los órganos autogenerados de un sistema
de información autosintetizado?".22

Juntos, estos eslóganes, preguntas, precauciones y pistas se suman a la petición de una nueva
teoría de la realidad, un modelo conceptual unificado para nuestros pensamientos y
observaciones. ¿Cuántos de los modelos actuales responden a esta llamada? La respuesta, por
supuesto, es "casi ninguno". Aunque algunos de ellos parecen abordar una o dos de las
cuestiones y cumplir uno o dos de los criterios, ninguno se acerca a abordarlas y cumplirlas
todas. Lo que cada modelo se ha visto obligado a ceder para cumplir un pequeño subconjunto
de criterios le ha costado muy caro a la hora de cumplir los demás. Así pues, tenemos tesis y
antítesis en forma de física clásica y modelos cuánticos discretos, pero como no se conoce en
toda su profundidad la relación entre ambos, no hay síntesis. Prácticamente todo el mundo
parece reconocer que las ideas de Wheeler son correctas, pero las relaciones de orden superior
necesarias para unirlo todo en una gran imagen han resultado difíciles de alcanzar. La dificultad
lógica de responder a todas las preguntas y cumplir todos los criterios a la vez, en paralelo,
utilizando conceptos integrados y lógicamente manejables, ha sido sencillamente prohibitiva.

¿Es posible corregir esta situación?

19
Algunos principios adicionales

Aunque las ideas sobre la base ideal y/o perceptiva de la realidad se remontan a milenios atrás,
podemos empezar por algunos de sus defensores más recientes en aras de la continuidad. En
primer lugar, Descartes postuló que la realidad es mental en el sentido del racionalismo, pero
contradijo su propia tesis al introducir el dualismo mente-cuerpo, la noción de que mente y
materia están irreductiblemente separadas. El empirista Berkeley afirmó entonces que la
realidad es de naturaleza perceptiva, una especie de intersección de mente y materia. Esto
puede comprobarse sustrayendo mentalmente la percepción de la propia concepción de la
realidad; lo que queda es pura cognición subjetiva, pero sin ninguna molienda objetiva para el
molino perceptivo. (Aunque los intentos de sustraer cognitivamente la cognición de la realidad
son mucho más comunes, son un poco como intentar demostrar que una esponja no está
intrínsecamente mojada mientras se la sumerge en agua, y nunca pueden tener éxito por parte
de las entidades cognitivas). Hume intentó entonces eliminar por completo la cognición y la
causalidad, afirmando que tanto la mente como la materia son inherentes a la percepción y no
existen separadas de ella ni entre sí.

Al deshacerse de la mente, Hume hizo otra "contribución" destacada a la teoría de la realidad:


intentó deshacerse de la causalidad identificándola como un artefacto cognitivo, apoyando su
tesis en el problema de la inducción.23 El problema de la inducción afirma que, dado que la
inducción empírica implica la suposición previa de aquello que pretende establecer, a saber, la
uniformidad de la naturaleza, la ciencia es circular y fundamentalmente defectuosa. El problema
de la inducción es muy real; se manifiesta en la incertidumbre de Heisenberg y el problema del
horizonte cósmico, las limitaciones finitas de las herramientas científicas de observación
microscópica y macroscópica, y es la razón por la que nunca se podrá construir de forma fiable
una teoría general de la realidad mediante los métodos empíricos estándar de la ciencia.
Desgraciadamente, muchos científicos han descartado este problema o han renunciado en
silencio a la búsqueda de una teoría verdaderamente general, en ninguno de los dos casos
sirviendo a los intereses a largo plazo de la ciencia. De hecho, el problema de la inducción
simplemente implica que una teoría global de la realidad sólo puede establecerse mediante los
métodos racionales de las matemáticas, incluyendo específicamente los de la lógica.

En respuesta a Berkeley y Hume, Kant afirmó que la cognición no primada que queda cuando se
sustrae el contenido perceptivo tiene una estructura intrínseca que existe con anterioridad al
contenido; comprende las categorías a priori de la realidad perceptiva o "fenoménica".24
Desgraciadamente, al sustraer la percepción según las reglas kantianas se obtiene algo más
que cognición sin imprimación; también se obtienen noumena, objetos absolutos o "cosas-en-
sí". Por un lado, el resultado es un isomorfismo perceptivo entre la mente y la realidad
fenoménica; por otro, se abre un abismo al otro lado del cual se asienta una realidad nouménica
incognoscible pero fundamental, que Kant evidentemente consideraba la última palabra en la
teoría (subteológica) de la realidad.

Sin embargo, el abismo de Kant es tan profundo y amplio, y prohíbe tan completamente
cualquier isomorfismo mente-realidad, que excluye la eficacia causal y, para el caso, cualquier
otro principio comprensible de correspondencia. Esto implica que los noúmenos son tanto
racional como empíricamente irrelevantes para la realidad cognitiva y perceptiva, y por tanto que
pueden ser eliminados con seguridad de la teoría de la realidad. Sea lo que sea lo que Kant
tenía en mente cuando introdujo el concepto de noúmeno, su definición equivale esencialmente
a "concepto inconcebible" y es, por tanto, un oxímoron. Sea lo que sea lo que realmente quiso
decir, debemos basarnos en algo distinto de la metafísica kantiana para encontrarlo.25

Hasta ahora, hemos conseguido reducir la realidad a la realidad fenoménica estudiada por la
ciencia, una combinación de contenido perceptivo y principios racionales de cognición. Un
científico emplea métodos empíricos para hacer observaciones concretas, aplica relaciones
cognitivas generales de la lógica y las matemáticas para explicarlas, y sale tratando la realidad
como una mezcla de percepción y cognición. Pero este tratamiento carece de cualquier cosa
parecida a una justificación explícita.
Cuando un conjunto de observaciones se explica con un probable conjunto de ecuaciones
20
interpretadas, la adherencia entre el explanandum y la explicación bien podría estar
proporcionada por cemento de caucho. Es decir, las explicaciones e interpretaciones científicas
pegan las observaciones y las ecuaciones de una forma muy poco comprensible. A menudo
funciona a las mil maravillas... pero ¿por qué? Uno de los principales objetivos de la teoría de la
realidad es responder a esta pregunta.

21
Lo primero que hay que señalar sobre esta cuestión es que implica el proceso de atribución, y
que las reglas de atribución se establecen por etapas en la lógica matemática. La primera etapa
se denomina lógica sentencial y contiene las reglas para atribuir los atributos verdadero o falso,
que denotan respectivamente inclusión o no inclusión en sistemas cognitivo-perceptuales
arbitrarios, a relaciones hipotéticas en las que los predicados están unidos por los functores
lógicos no, y, o, implica, y si y sólo si. La lógica sentencial define estos functores como funciones
de verdad que asignan valores de verdad a tales expresiones independientemente del contenido
(pero no de los valores de verdad) de sus predicados, efectuando así una definición circular de
functores sobre valores de verdad y de valores de verdad sobre functores. La siguiente etapa de
la atribución, la lógica de predicados, atribuye propiedades específicas a los objetos mediante
cuantificadores. Y la última etapa, la teoría de modelos, comprende las reglas para atribuir
relaciones complejas de predicados a relaciones complejas de objetos, es decir, teorías a
universos. Además, la forma de atribución denominada definición se explica en una rama de la
lógica centrada en la teoría denominada teorías formalizadas, y la mecánica de la atribución
funcional se trata en la teoría de la recursividad.

En lógica sentencial, una tautología es una expresión de variables sentenciales relacionadas con
un functor que siempre es verdadera, independientemente de los valores de verdad asignados a
sus propias variables sentenciales. Una tautología tiene tres propiedades clave: es
universalmente (sintácticamente) verdadera, es por tanto autorreferencial (verdadera incluso de
sí misma y por tanto cerrada bajo autocomposición recursiva), y sus implicaciones permanecen
consistentes bajo operaciones inferenciales que preserven estas propiedades. Es decir, toda
tautología es una circularidad autoconsistente de alcance universal, que posee validez en virtud
del cierre bajo la autocomposición, la comprensividad (no exclusión de la verdad) y la
consistencia (ausencia de paradoja irresoluble). Pero las tautologías no son meramente
consistentes en sí mismas; son mutuamente consistentes bajo composición mutua, haciendo de
la lógica sentencial tanto una "circularidad autoconsistente de alcance universal" como
cualquiera de sus tautologías. Así, la lógica sentencial incorpora dos niveles de tautología, uno
que se aplica a las expresiones y otro que se aplica a sus sistemas teóricos. A continuación, la
lógica de predicados amplía el concepto de tautología para abarcar los actos específicos de
atribución representados por variables sentenciales (antes anónimas), y la teoría de modelos
pasa a abarcar actos de atribución más complejos que implican relaciones más complejas.

La teoría de la realidad trata del estadio de la atribución en el que dos predicados análogos a
verdadero y falso, a saber, real e irreal, se atribuyen a diversos enunciados sobre el universo
real. En este sentido, está estrechamente relacionada con la lógica sentencial. En concreto, la
lógica sentencial tiene cuatro propiedades principales que debe emular la teoría de la realidad.
La primera es la verdad absoluta; como definición formal de la verdad, es verdadera por
definición. Las otras propiedades son la clausura, la exhaustividad y la coherencia. Es decir, la
lógica se basa totalmente en la cognición y la percepción y se define estrictamente dentro de
sus límites; se aplica a todo lo que puede percibirse o concebirse de forma coherente; y es
coherente por su propia naturaleza, ya que está diseñada de forma que excluye la incoherencia.
Es la base de las matemáticas, ya que es el medio por el que se enuncian, prueban o refutan las
proposiciones, y es el núcleo de la ciencia, ya que garantiza la integridad de la metodología
racional y empírica. Incluso las lógicas denominadas "no estándar", como la modal, la difusa y la
multivaluada, deben expresarse en términos de la lógica fundamental de dos valores para que
tengan sentido. En resumen, la lógica de dos valores es algo sin lo cual la realidad no podría
existir. Si se eliminara, no podrían distinguirse lo verdadero y lo falso, lo real y lo irreal, ni la
existencia y la no existencia, y el más simple acto de percepción o cognición sería totalmente
imposible.

Hasta ahora, se ha dado por sentado que la teoría de la realidad puede buscarse por los
mismos medios que cualquier otra teoría científica. Pero esto no es del todo cierto, ya que
mientras que la ciencia utiliza el equivalente epistemológico de un pegamento mágico para unir
sus teorías a sus observaciones, la teoría de la realidad debe dar una receta para el pegamento
y justificar los medios de aplicación. Es decir, la teoría de la realidad debe describir la realidad a
un nivel que justifique la ciencia y, por tanto, ocupa un nivel de explicación más profundo que la
propia ciencia.
22
¿Significa esto que la teoría de la realidad es matemática? Sí, pero dado que las matemáticas
deben justificarse junto con la ciencia, metamatemática sería quizás una mejor descripción... y al
fin y al cabo, esto se reduce a lógica pura y simple. De ello se deduce que la teoría de la
realidad debe adoptar la forma de una lógica ampliada... de hecho, una "forma límite" de lógica
en la que la relación entre teoría y universo, hasta ahora fuente inagotable de ambigüedad
teórico-modelo destructiva,

23
se reduce por fin a la forma mónica (de aspecto dual), cortocircuitando la paradoja del dualismo
cartesiano y eliminando la brecha epistemológica entre mente y materia, teoría y universo.

A medida que aumenta la complejidad y los predicados se convierten en teorías, la tautología y


la verdad se hacen más difíciles de reconocer. Dado que la universalidad y la especificidad están
reñidas en la práctica, si no en principio, están sujetas a una especie de "decoherencia lógica"
asociada a la estratificación relacional. Dado que los predicados no siempre son tautológicos,
están sujetos a diversos tipos de ambigüedad; a medida que se vuelven cada vez más
específicos y complejos, resulta más difícil controlar localmente la heredabilidad de la coherencia
y seguir localmente la pista de la propiedad de verdad en el curso de la atribución (o incluso
después del hecho). Indecibilidad,26 LSAT intractability and NP-completeness, predicate
ambiguity and the Lowenheim-Skolem theorem, observational ambiguity and the Duhem-Quine
thesis27 ...estos son algunos de los problemas que surgen una vez que el predicado de verdad
se "descoherencia" con respecto a los mapas atributivos complejos. Por razones como éstas, la
filosofía de la ciencia ha vuelto a caer en la doctrina falsacionista, renunciando a la base
tautológica de la lógica, degradando de hecho la verdad a un estatus provisional y desalentando
la plena apreciación del nivel tautológico-sintáctico de la investigación científica, incluso en la
propia lógica y filosofía.

De hecho, la validez de las teorías científicas y de la ciencia en su conjunto depende


absolutamente de la existencia de un marco teórico fundamental de la realidad que abarque
toda la ciencia... una sintaxis fundamental a partir de la cual todos los lenguajes científicos y
matemáticos, y el propio lenguaje cognitivo ampliado de la percepción, puedan desplegarse
gramaticalmente, relacionarse entre sí y validarse.
La tautología, base teórica de la verdad encarnada en la lógica sentencial, es evidentemente el
núcleo de esta sintaxis. En consecuencia, la teoría de la realidad debe desarrollarse a través de
la ampliación de esta sintaxis tautológica mediante la adición de componentes sintácticos
adicionales, los principios de la teoría de la realidad, que dejan invariable el carácter general de
la sintaxis. En concreto, para crear una teoría de la realidad que tenga la propiedad de verdad en
el mismo sentido que la lógica, pero que permita la evaluación lógica de enunciados sobre el
espacio, el tiempo y la ley, debemos añadir principios de extensión que den sentido a dichos
enunciados, preservando al mismo tiempo la propiedad de tautología.

Según la naturaleza de la lógica sentencial, la verdad se basa tautológicamente en la integridad


de la realidad cognitiva y perceptiva. La cognición y la percepción constituyen la base primitiva
(autodefinitiva) de la lógica, y la lógica comprende las reglas de estructura e inferencia bajo las
cuales la percepción y la cognición son estables y coherentes. Por tanto, cuando decimos que la
verdad es heredable bajo las reglas lógicas de inferencia, en realidad queremos decir que la
tautología es heredable, y que la base primitiva cognitivo-perceptiva de la lógica sentencial
mantiene así su estatus primario. Al convertir tautologías en otras tautologías, las reglas de
inferencia de la lógica sentencial convierten invariantes cognitivo-perceptuales en otras
invariantes semejantes. Para llevar a cabo esta agenda en la teoría de la realidad, debemos
identificar principios que describan cómo se manifiesta la estructura de bucle de la tautología
lógica en diversos escenarios y contextos teóricos de la realidad en varios niveles de descripción
e interpretación; de ese modo, podemos verificar su preservación bajo las operaciones de
reducción y extensión teóricas. Es decir, debemos unir los principios generalizados de la
estructura de bucles a la sintaxis lógica, de modo que se explique cada vez más la realidad y se
logre la exhaustividad.

Por ejemplo, tomemos la tautología sentencial "X v ~X" (X O NO-X). Aplicada a la percepción,
significa que cuando se ve u observa algo, no se ve conjuntamente con su ausencia; si así fuera,
coincidirían dos percepciones contradictorias, lo que daría lugar a una "escisión" de las
realidades perceptivas. En efecto, o bien la conciencia del perceptor se escindiría en dos
realidades cognitivas separadas en un caso de disociación reactiva en cadena, o bien el propio
perceptor se escindiría físicamente junto con la realidad física. Cuando "X v ~X" se compone con
otras tautologías (o con ella misma) por sustitución, lo que está en juego es exactamente lo
mismo; cualquier violación de la tautología compuesta escindiría la realidad perceptiva y
cognitiva con consecuencias desastrosas para su integridad.28
24
Después de su carácter tautológico, lo primero que hay que señalar de la lógica sentencial en el
contexto de la teoría de la realidad es que, en contra del espíritu con el que se fundó -al fin y al
cabo, representa las reglas de los procesos mentales de cognición y percepción29 de cognición y
percepción, lo que parecería dotarla de un carácter mental desde el principio- tiene una
inadecuación funcional básica: parece requerir una lógica externa.

25
lógico para leerla, comprenderla y aplicarla mentalmente. Por otro lado, la naturaleza (o la
realidad cognitivo-perceptiva) no requiere un lógico externo para aplicar las reglas de la lógica.
Por lo tanto, los principios de la teoría de la realidad propuestos para preservar la tautología
deberían devolver la mente a la mezcla de una forma explícita y teóricamente manejable,
dotando efectivamente a la lógica de "capacidad de autoprocesamiento".
Después de todo, esto es exactamente lo que posee en su manifestación natural, la realidad en
general, y es una dimensión esencial de la propiedad de cierre sin la cual la verdad es
insostenible. Es decir, la realidad debe ser capaz de reconocerse a sí misma e impartir esta
capacidad a sus componentes como condición de su existencia e interacción.

Una vez explicadas las principales cuestiones técnicas de la teoría de la realidad, podemos ir al
grano: la forma de construir una teoría de la realidad consiste en identificar las propiedades que
debe poseer incondicionalmente para existir, y luego hacer que la teoría exista definiéndola
como poseedora de esas propiedades sin introducir propiedades meramente contingentes que,
si se toman como generales, podrían perjudicar su relación descriptiva con el universo real
(éstas pueden venir después y, naturalmente, estarán sujetas a confirmación empírica). En otras
palabras, los medios por los que se construye la teoría deben ser racionales y tautológicos,
mientras que aquellos por los que se refina posteriormente pueden ser empíricos. Puesto que
queremos que nuestra teoría sea lo suficientemente inclusiva, exclusiva y coherente como para
poder describir la realidad, estas propiedades incluirán sin duda la exhaustividad (menos
minuciosa pero también menos indecidible que la completitud), la clausura y la coherencia. A
estas propiedades, las "3 C", asignaremos tres principios que son básicamente tautológicos en
su forma; de ese modo, al unirlos a la teoría de la realidad basada en la lógica se preservará la
propiedad de tautología de la lógica, excluyendo racionalmente la incertidumbre por los mismos
medios que la lógica misma. Una teoría de la realidad construida de este modo se denomina
supertautología.

Como nuestros tres principios corresponden a las 3 C, y como todos empiezan por la letra M,
podríamos llamarlos también las "3 M": M=R, MAP y MU, que significan respectivamente el
Principio Mente Igual a Realidad, el Principio de Autología Metafísica y el Principio de Unidad
Múltiplex. El principio M=R, una propiedad teórica tautológica que disuelve la distinción entre
teoría y universo y, por tanto, identifica el universo real como una "teoría autorreificadora", hace
que la sintaxis de esta teoría sea completa al garantizar que nada que pueda reconocerse
cognitiva o perceptivamente como parte de la realidad quede excluido por falta de sintaxis. MAP
hace tautológicamente que esta sintaxis sea cerrada o autocontenida en los sentidos definitivo,
descriptivo e interpretativo, y en conjunción con M=R, hace que el universo sea perfectamente
autocontenido. Y MU hace tautológicamente que esta sintaxis, y el complejo teoría-universo que
describe, sean lo suficientemente coherentes como para garantizar su propia coherencia (así, la
"C" correspondiente a MU se divide en realidad en dos C, consistencia y coherencia, y tenemos
cuatro en total). A cada uno de estos principios podemos añadir los corolarios que se
presenten.30

Puesto que a todo teórico de la realidad le corresponde utilizar propiedades de la realidad para
explicar la realidad, y estas propiedades se definen recursivamente, a veces nos referiremos
implícita o explícitamente a varias propiedades en las descripciones de otras propiedades. Esto
impide una serie ordenada de definiciones acumulativas, que en cualquier caso sólo es posible
dando por sentado el contenido y los medios de la teorización (por desgracia, no se puede dar
nada por sentado en la teoría de la realidad). Como veremos más adelante, el carácter recursivo
de la CTMU es inevitable. En segundo lugar, la CTMU se desarrolla "hacia atrás" con respecto a
las teorías deductivas habituales de la ciencia y las matemáticas, eliminando primero las
restricciones y sólo después utilizando los resultados para deducir hechos sobre el contenido.
La mayoría de las teorías comienzan con axiomas, hipótesis y reglas de inferencia, extraen
implicaciones, las comprueban lógica o empíricamente y luego añaden o revisan axiomas,
teoremas o hipótesis. La CTMU hace lo contrario, elimina supuestos y "reconstruye la realidad"
sin añadir ningún supuesto.

Los siguientes principios se presentan en tres etapas. La primera etapa incluye el Principio de
Realidad, el Principio de Reducibilidad Lingüística y el Principio de Sindifeonesis, que pueden
26
considerarse preliminares a MAP, M=R y MU respectivamente (el orden de presentación puede
diferir ligeramente del que acabamos de exponer). La segunda etapa consiste en MAP, M=R y
MU propiamente dichos, mientras que la tercera consiste en varios principios auxiliares que
pueden considerarse sus consecuencias.

27
El principio de realidad

La realidad, es decir, el universo real, contiene todo y sólo lo que es real. El concepto de
realidad es analíticamente autocontenido; si hubiera algo fuera de la realidad que fuera lo
suficientemente real como para afectar o influir en la realidad, estaría dentro de la realidad, y
esta contradicción invalida cualquier suposición de una realidad externa (hasta la relevancia
observacional o teórica).31

Aunque esta caracterización de la realidad incorpora una definición circular de relevancia, la


circularidad es esencial para el concepto de realidad y no excluye una base perceptiva
(observacional, científica). De hecho, podemos refinar la definición de realidad de la siguiente
manera: "La realidad es el agregado perceptivo que incluye (1) todas las observaciones
científicas habidas y por haber, y (2) toda la infraestructura explicativa abstracta y/o cognitiva de
la percepción" (donde lo abstracto es una generalización sintáctica de lo concreto que
representa ideas, conceptos o estructuras cognitivas que se distribuyen sobre instancias físicas
que se ajustan a ellas como el contenido se ajusta a la sintaxis).

Diagrama 5

Cabe señalar que toda definición equivale a una teoría microscópica de la cosa definida. El
Principio de Realidad, que puede considerarse como una definición general de la realidad, es
un ejemplo de ello; puede considerarse como la semilla de una teoría de la realidad que
hemos empezado a construir. Al definir la realidad como autocontenida, esta "microteoría" se
dota a sí misma de un tipo de cierre simple; no recurre a nada fuera del definiendum en el
curso de su definición, y efectivamente prohíbe que cualquier futura extensión teórica de esta
definición lo haga tampoco (esto se hace explícito en un principio relacionado, el MAP).

Pero ahora volvamos a la cola. Hasta ahora, hemos aprendido que la realidad es
autocontenida; en todas partes es igual a sí misma. ¿Qué ocurre con todas sus distinciones
internas?

Syndiffeonesis

La realidad es una relación, y toda relación es una relación sindifónica que exhibe sindifeonesis
o "diferencia-en-semejanza". Por tanto, la realidad es una relación sindifónica. La sindifeonesis
28
implica que cualquier afirmación en el sentido de que dos cosas son diferentes implica que son
reductivamente iguales;

29
si su diferencia es real, entonces ambas se reducen a una realidad común y son en esa medida
similares. La sindifeonesis, el más general de todos los principios reductores, constituye la base
de una nueva visión de la estructura relacional de la realidad.

El concepto de sindifeonesis puede captarse afirmando que la expresión y/o existencia de


cualquier relación de diferencia conlleva un medio y una sintaxis comunes, es decir, las reglas
de estado y transformación que caracterizan al medio. Es a partir de estas reglas que la relación
deriva sus características espaciales y temporales tal y como se expresan dentro del medio. Así
pues, una relación sindifónica consiste en una relación de diferencia incrustada en un medio
relacional cuyas reglas distribuidas de estructura y evolución sustentan su existencia.

Toda relación sindifeónica tiene fases sinestésica y difeónica que exhiben respectivamente
sinéresis y difeonesis (igualdad y diferencia, o distributividad y localidad paramétrica), y muestra
dos formas de contención, topológica y descriptiva. El medio está asociado a la fase sinética,
mientras que la relación de diferencia está asociada a la fase difeónica (debido a que las reglas
de estado y transformación del medio están distribuidas sobre él, el medio es homogéneo,
poseyendo intrínsecamente sólo extensión relativa en virtud de las relaciones de diferencia que
contiene). Dado que los relandos difeónicos se relacionan con su medio expresivo común y su
sintaxis distributiva de un modo que combina aspectos de unión e intersección, la operación que
produce el
medio de los relandos se denomina unisección (). El medio sinético representa difeónico
potencial del que la relación de diferencia es una actualización.

Diagrama 6: Este diagrama sindifónico genérico ilustra un hecho simple: cualquier relación de diferencia
requiere un medio de soporte con extensión en el parámetro diferencial. Como se ilustra, el medio distribuye
sobre ambos la relación lineal "X difiere de Y" y sus relandos (entidades relacionadas) X e Y, otorgándoles un
común
propiedad de "parentesco" que equivale a "inclusión en el medio relacional XY", donde XY es el unisecto o
"producto sintáctico" de X e Y. Este atributo común invalida cualquier afirmación en el sentido de que la diferencia
entre los relandos es "absoluta" o "irreductible"; el mero hecho de que la diferencia pueda expresarse lingüística o
geométricamente implica que sólo es parcial y que ambos relandos son manifestaciones de un mismo medio
ontológico. Donde X e Y representan partes o aspectos arbitrarios de la relación de diferencia llamada realidad,
este diagrama demuestra gráficamente que la realidad consiste en última instancia en un medio ontológico
unitario. En consecuencia, la teoría de la realidad debe ser una teoría mónica que reduzca la realidad a este
medio (esta idea se desarrolla con más detalle en el Principio del Monismo Infocognitivo).

Obsérvese que cualquier inhomogeneidad sintáctica (por oposición a informativa) en el medio común es en sí
misma una relación de diferencia y, por tanto, invita a recrear el diagrama. Del mismo modo, cualquier
inhomogeneidad en el medio común ilustrado por el diagrama recreado invitaría a otra recreación del diagrama, y
así sucesivamente. Cualquier regresión sindefónica de este tipo debe terminar, ya que si no lo hiciera, no existiría
una sintaxis estable y, por tanto, ninguna "relación" lo suficientemente estable como para ser percibida o
concebida. La estabilidad informativa de la realidad perceptiva demuestra que la realidad tiene una sintaxis
estable.

El diagrama anterior podría expresarse de forma compacta como sigue: syn(XY):diff(X,Y). Por
ejemplo, syn(nomA X nomB X) : diff(nomA X, nomB X) significa que donde nomA X, nomB X son
conjuntos de leyes obedecidas por el sistema X en diferentes tiempos, localizaciones o marcos
30
de referencia A y B dentro de la

31
sistema X, existe un conjunto más básico de leyes (nomA X nomB X) en términos de las
cuales se puede expresar esta diferencia. Esto demuestra que en algún nivel, la covarianza
general debe mantenerse.
Esto no es simplemente cierto "hasta isomorfismo con X"; incluso si se puede distinguir más de
un conjunto válido de leyes, cualquiera de las cuales podría estar activa en cualquier lugar dado
(A,B,...) dentro de X [XA "nom1 , XB "nom2 , ..., donde los índices numéricos denotan distinción
nomológica], cualquier distinguible
diferencia entre estos conjuntos también requiere una sintaxis común. La coherencia informativa es,
pues, una
sine qua non de la existencia reconocible; cualquier sistema en el que fallara simplemente se
desintegraría por falta de algo que lo mantuviera unido.

En otras palabras, (1) cuando las distinciones informativas relativas a un sistema X se


consideran instancias de la ley, también pueden considerarse expresiones conformes a la
sintaxis; y (2) la expresión de las diferencias requiere una sintaxis expresiva unificada (o
conjunto de "leyes"), y esta sintaxis debe distribuirse por todo el conjunto de expresiones
diferenciales (o "instancias de la ley"). Por ejemplo, cuando X es una "intersección perceptiva"
formada por objetos, atributos y acontecimientos generalmente reconocibles, las leyes de la
percepción deben ser, en última instancia, constantes y distribuidas. Cuando existe una
diferencia nomológica putativa para algún par de lugares (A,B), se aplica la covarianza sintáctica
reductora debido a la necesidad de un medio expresivo, y cuando no existe tal diferencia para
ningún par de lugares (A,B), la covarianza sintáctica se aplica a fortiori sin necesidad de
reducción.

Las relaciones sindifónicas pueden considerarse elementos de entramados infocognitivos más


complejos con dimensiones espaciales y temporales (ordinales, estratificativas). Interpretados
según los principios de dualidad de CTMU, los entramados infocognitivos comprenden relaciones
lógicas de estado y sintaxis. La regresión hacia arriba de uno de estos entramados por
unisección conduce en última instancia a un medio sintáctico de perfecta generalidad y
homogeneidad... un "operador sintáctico" universal y reflexivo.

En efecto, la sindifeonesis es una tautología metalógica que equivale a una paradoja


autorresolutiva. La paradoja reside en la coincidencia de la igualdad y la diferencia, mientras que
la resolución teórica reside en la distinción lógica y matemática entre ambas, es decir, la
dimensión estratificativa de un entramado infocognitivo.32 Así pues, reducir la realidad a la
sindifeonesis equivale a "paradójificarla". Esto tiene una ventaja: una teoría y/o realidad
construida de paradoja autorresolutiva está inmunizada contra la paradoja.

Hasta ahora, sabemos que la realidad es una relación sindifónica autocontenida. También
tenemos acceso a una especie de diagrama instructivo que podemos utilizar para ilustrar
algunos de los principios que siguen. Veamos si podemos aprender algo más sobre el tipo de
relación sindifónica autocontenida que es la realidad.

El principio de reducibilidad lingüística

La realidad es una forma autónoma de lenguaje. Esto es cierto al menos por dos razones. En
primer lugar, aunque en algunos aspectos es material y concreta, la realidad se ajusta a la
definición algebraica de un lenguaje. Es decir, incorpora

(1) representaciones de individuos (objetuales), relaciones y atributos (espaciales) y funciones y


operaciones (temporales);

(2) un conjunto de "expresiones" o estados perceptivos; y

(3) una sintaxis compuesta por (a) reglas lógicas y geométricas de estructura, y (b) una
gramática generativa inductivo-deductiva identificable con las leyes de transición de
estados.

En segundo lugar, puesto que la percepción y la cognición son lenguajes, y la realidad es de


32
naturaleza cognitiva y perceptiva, la realidad también es un lenguaje.

Aunque ha habido muchos programas reduccionistas en ciencia y filosofía, la reducción


prometida es siempre la misma: un lenguaje teórico. Porque esto es necesariamente cierto,

33
el lenguaje es fundamental. El hecho de que la mayoría de tales teorías, por ejemplo, las teorías
de la física, señalen el estatus fundamental de algo "objetivo" e "independiente del lenguaje",
por ejemplo, la materia y/o la energía, es bastante irrelevante, ya que el propio acto de señalar
invoca un isomorfismo entre la teoría y la realidad objetiva... un isomorfismo que está sujeto al
Principio de Realidad, y que no podría existir a menos que la realidad compartiera la estructura
lingüística de la propia teoría.

Tal vez el significado de este principio pueda expresarse más concisamente mediante una
generalización del aforismo "de lo que no se puede hablar, hay que callar": de lo que no se
puede describir lingüísticamente, no se puede percibir ni concebir. Así pues, para los fines
observacionales y teóricos de la ciencia y la teoría de la realidad, lo que no es isomorfo al
lenguaje está fuera de toda consideración como componente de la realidad.

Diagrama 7: En este diagrama sindifónico, la afirmación "El lenguaje difiere de la realidad" se extiende a lo largo
de un segmento de línea que representa la supuesta diferencia entre los relandos. Igual que en el diagrama
genérico anterior,
ambos relandos poseen el atributo "inclusión en el medio sintáctico relacional (Realidad Lingüística)". Dado que
son ambas manifestaciones del mismo medio subyacente, su diferencia no puede ser absoluta; en un
nivel fundamental, la realidad y el lenguaje comparten aspectos comunes. Esto es coherente con la naturaleza
de la relación de "diferencia", que en realidad se supone que representa un isomorfismo semántico y teórico
de modelos.

Como ya hemos visto, el Principio de Realidad dice que la realidad contiene todo y sólo lo que
es real. Tal como se define en esta afirmación, el predicado realidad es ante todo una
construcción lingüística que se ajusta a la estructura sintáctica, donde la sintaxis consiste en las
reglas mediante las cuales se construyen e interpretan los predicados. En este sentido, la
realidad equivale a una especie de teoría cuyos axiomas y reglas de inferencia están
implícitamente proporcionados por el componente lógico de la sintaxis conceptual en la que se
expresa. El Principio de Reducibilidad Lingüística se limita a aclarar la cuestión de si la realidad
es un predicado lingüístico o el contenido objetivo de tal predicado, afirmando que es ambas
cosas. Así, cuando el predicado de realidad es analítica (o sintácticamente) autocontenido, la
realidad es autocontenida. Esto puede expresarse de la siguiente manera: en el nivel de la
sintaxis cognitivo-perceptiva, la realidad es igual a la teoría de la realidad. Cuando la teoría y el
universo convergen, la navaja de Occam y los principios físicos de la economía se convierten en
tautologías.

Dado que la percepción es una intersección sensorial de la mente y la realidad, la percepción


es imposible sin la cognición, y en esta medida el predicado cognitivo realidad equivale a su
contenido perceptivo. En el nivel de la sintaxis cognitiva y perceptiva, el lenguaje es
necesariamente isomorfo a aquello que describe; en una realidad perceptiva como la que existe
a nuestro alrededor, es tautológicamente cierto que el lenguaje básico de la cognición y la
percepción es sintácticamente isomorfo a la realidad (aunque la ilusión y la falsedad se hacen
posibles en el nivel semántico). De ello se deduce que podemos hablar de la realidad en
términos de cognición y percepción generalizadas, donde esta frase denota conformidad con la
cognición y la percepción en el nivel sintáctico. En particular, la cognición generalizada es el
34
proceso a través del cual la realidad se "reconoce" a sí misma en todas partes.

35
El Principio de Reducibilidad Lingüística proporciona un mandato para añadir una forma
avanzada de teoría del lenguaje al arsenal matemático de la teoría de la realidad. Los beneficios
de esta adición para la teoría de la realidad son incalculables. En la teoría física convencional,
las entidades fundamentales son las partículas puntuales, las ondas y, más recientemente, las
cuerdas; cada clase de objeto tiene sus problemas y paradojas. En la CTMU, los objetos
fundamentales son operadores sintácticos (unidades de información autotransductora o
infocognición) que no sólo son capaces de emular todos estos objetos y más, sino de contener
las estructuras sintácticas a las que inevitablemente deben ajustarse y resolver sus paradojas
características en la negociación. Puesto que el significado equivale a la conectividad semántica
y, por tanto, es lingüístico en todos los sentidos del término, el cambio a una perspectiva
lingüística es indispensable para la teleología o cualquier otra forma de significado.

Ahora sabemos que la realidad es una relación sindifónica lingüística autocontenida, aunque
todavía parece que la conozcamos desde un punto de vista externo de una forma bastante
inespecífica. ¿Adónde deberíamos ir ahora en busca de pistas? Llegados a este punto, nos
vendría muy bien un MAPA.

Cierre sintáctico: el principio de autología metafísica (MAP)

Todas las relaciones, mapeos y funciones relevantes para la realidad en un sentido efectivo
generalizado, ya sean descriptivas, definitivas, composicionales, atributivas, nomológicas o
interpretativas, se generan, definen y parametrizan dentro de la realidad misma. En otras
palabras, la realidad comprende un "múltiple descriptivo cerrado" del que no se omite ningún
predicado esencial y que, por tanto, no contiene ninguna laguna crítica que deje sin explicar
algún aspecto esencial de la estructura. Cualquier laguna de este tipo implicaría la no clausura.

Diagrama 8

MAP, un refinamiento teórico del criterio de autocontención establecido por el Principio de


Realidad, amplía la propiedad de cierre de la definición de realidad al conjunto de todos los
predicados reales. MAP efectúa el cierre en los niveles definitivo, descriptivo, explicativo e
interpretativo de la teoría de la realidad haciendo que adopte la forma de una red cerrada de
definiciones, descripciones, explicaciones e interpretaciones acopladas que no se refieren a
nada externo a la propia realidad. Otra forma de decirlo es que MAP, al igual que el Principio de
Realidad, requiere que todo aquello a lo que se refiera cualquier definición, descripción,
explicación o interpretación de la teoría de la realidad se encuentre dentro de la realidad. Esto
36
tiene el efecto de hacer a la realidad responsable de su propia estructura y evolución en los
sentidos abstracto y concreto.

37
El MAP exige una explicación cerrada porque sin ella es imposible distinguir. De nuevo, esto se
reduce a la cuestión de la estabilidad sintáctica.33 Para decirlo de la forma más sencilla posible,
la realidad debe poseer en última instancia una distinción estable a nivel de objeto de 2 valores
entre lo que es y lo que no es, manteniendo los límites informativos necesarios entre objetos,
atributos y acontecimientos. La existencia de fronteras informativas cerradas dentro de un
sistema sólo es posible en última instancia en virtud del cierre sistémico bajo composición
dualista (explanans- explanandum), que es justo como se efectúa en la lógica sentencial.

Como ejemplo de la naturaleza tautológica del MAP, consideremos una hipotética escala
externa de distancia o duración en términos de la cual pueda definirse el tamaño o la duración
absolutos del universo o de sus contenidos. Debido a la autocontención analítica de la realidad,
las funciones y definiciones que comprenden su múltiple autodescriptivo sólo se refieren unas a
otras; todo lo que no esté implicado en su red sintáctica es irrelevante para la estructura e
internamente irreconocible, mientras que todo lo que es relevante ya es un ingrediente implícito
de la red y no necesita ser importado de fuera. Esto implica que si la escala propuesta es
relevante, entonces no es realmente externa a la realidad; de hecho, la realidad ya la contiene
como implicación de su estructura intrínseca.

En otras palabras, dado que la realidad se define sobre la base de la relevancia mutua de sus
partes y aspectos esenciales, externo e irrelevante son sinónimos; si algo es externo a la
realidad, entonces no está incluido en la sintaxis de la realidad y, por tanto, es internamente
irreconocible. De ello se deduce que, con respecto a ese nivel de realidad definido sobre la base
de la relevancia y el reconocimiento, no existe una escala "real pero externa" y, por tanto, que el
universo es externamente indefinido con respecto a todas las medidas, incluidos el tamaño y la
duración globales. Si una escala absoluta fuera alguna vez internamente reconocible como una
necesidad ontológica, entonces esto implicaría simplemente la existencia de un nivel más
profundo de la realidad al que la escala es intrínseca y por el que ella misma se explica
intrínsecamente como una función relativa de otros ingredientes. Así, si la necesidad de una
escala absoluta llegara a ser reconocible dentro de la realidad -es decir, reconocible para la
realidad misma-, sería por definición relativa en el sentido de que podría definirse y explicarse en
términos de otros ingredientes de la realidad. En este sentido, la PRA es un "principio general de
relatividad".34

El criterio "sin lagunas" del MAPA no permite ningún agujero explicativo crítico que omita algún
aspecto esencial de la estructura. Lo que esto significa puede ilustrarse mejor mediante una
falacia recurrente: "La existencia del universo está dada y, por tanto, no necesita explicación".
La frase está dada está incompleta; tiene "cabos sueltos" ocultos que corresponden a aquello
por lo que la existencia está dada, los medios por los que está dada y la razón por la que está
dada. Si la fuente, los medios y la razón son reales, entonces están dentro de la realidad, y la
laguna explicativa sólo existe en la mente del que la afirma y no en la red autoexplicativa de la
propia realidad.

Por otra parte, omitiendo esta frase (se da) se obtiene algo así como "la existencia del universo
es inexplicable". Sin embargo, esto equivale a afirmar que el universo no tiene ninguna base o
medio identificable de existencia, ni siquiera él mismo... es decir, que no se puede definir
ninguna función explicativa sobre el explanandum, y que el universo tiene de alguna manera
prohibido servir como su propia fuente, medio o razón. Pero esto equivale a decir que el universo
sólo podría existir "por arte de magia", surgiendo del apeiron con una espontaneidad superior a
la que un auténtico mago podría sacar un conejo mágico de una chistera. Porque mientras que
los conejos mágicos pueden al menos originarse por magia asociada a magos que los sacan de
sombreros de copa a la brillante luz de la realidad, o que mágicamente se arrancan a sí mismos
de sus propios sombreros a sus propias realidades, al universo se le negaría cualquier base
ontológica o medio en absoluto... ni siquiera un arranque.

Porque preguntas como "¿por qué y cómo existe la realidad (dentro del dominio del potencial
existencial que sustenta la posibilidad de existencia)?" y "¿por qué existe esta realidad en lugar
de alguna otra realidad?"35 se dirigen a los niveles ontológicos o teleológicos de la estructura de
38
la realidad, y dado que estos niveles de la estructura son lógicamente significativos, deben tener
respuestas... incluso si esas respuestas están determinadas, como algunas de ellas, por el
propio criterio de cierre.

39
Ahora sabemos que la definición cerrada, de predicado único, del Principio de Realidad es en
realidad un colector descriptivo cerrado de definiciones vinculadas que, en principio, contiene los
medios de su propia composición, atribución, reconocimiento, procesamiento e interpretación.
Pero esto sigue siendo algo autómata. ¿Y la mente? Puesto que es a través de nuestra mente
como entendemos cualquier cosa, la comprensión seguirá siendo incompleta hasta que
entendamos mejor la relación entre la mente y la realidad. Así que, habiéndonos equipado con
un MAPA, ahora nos ocupamos de la correspondencia entre el MAPA y el terreno.

Exhaustividad sintáctica-Reflexividad: el Principio Mente = Realidad (M=R)

El principio M=R o Mente igual a Realidad afirma que la mente y la realidad son, en última
instancia, inseparables en la medida en que comparten reglas comunes de estructura y
procesamiento. La existencia de una relación de diferencia entre la mente y la realidad
presupone sindiféonicamente un medio relacional que tiene las características de ambas, y este
medio tiene prioridad lógica sobre la propia relación de diferencia.

Diagrama 9: Principio M=R (Mente = Realidad). En el diagrama sindifónico anterior, la mente se yuxtapone a la
realidad en un espacio delimitado por una caja. La línea que separa la mente de la realidad representa la
supuesta diferencia entre ambas, mientras que el interior de la caja representa su comparabilidad o "parentesco"
(o, más técnicamente, su uniformidad).
sintaxis diferenciadora o unisecta, denotada mediante el functor). La extensionalidad de la línea es sólo la de
la caja; sin la caja, no habría medio extensional que contuviera la línea, ni forma de expresar la
relación de diferencia asociada. Dado que la separación no puede existir sin un medio común que incorpore una
sintaxis diferenciadora que distribuya sobre ambos relandos de la relación de diferencia, la "separación absoluta"
de mente y realidad no tiene modelo... y sin modelo, la premisa del dualismo cartesiano mente-materia fracasa.
Esto indica que la realidad y la mente, la información y el procesador de información, deben considerarse en
última instancia como una sola cosa. Cualquier distinción entre ellas al estilo cartesiano debe ser estrictamente
matizada.

El principio M=R no es más que una versión lógica de lo que los filósofos empiristas señalaron
hace tiempo: experimentamos la realidad en forma de percepciones y datos sensoriales de los
que se induce la existencia e independencia de la mente y de la realidad externa objetiva.
Puesto que cualquier prueba en contrario sería necesariamente cognitiva, como lo son todas las
"pruebas", y puesto que el contenido de la cognición es cognitivo por incrustación, no puede
existir tal prueba; tal prueba socavaría su propio medio y, por tanto, se anularía a sí misma. Por
otro lado, el Principio de Realidad dice que la realidad es autocontenida con respecto al
reconocimiento y al control, y en la medida en que el reconocimiento y el control son "mentales"
(en el sentido de ser efectuados de acuerdo con la sintaxis cognitiva y perceptiva), también lo es
la realidad. El Principio M=R conlleva la comprensividad al definir todas nuestras percepciones,
junto con su infraestructura cognitivo-sintáctica a nivel sintáctico, como partes de la realidad
independientemente de la decidibilidad.36 Cuando se trata de M=R, es difícil resistirse a un
pequeño juego de palabras: M=R dice que en el nivel sintáctico de la cognición y la percepción,
"el MAPA es el terreno". Nótese que M=R va más allá del mero isomorfismo kantiano entre la
realidad fenoménica y las categorías del pensamiento y la percepción; dice que la sintaxis y su
40
contenido están recursivamente relacionados, y en conjunción con el Principio de Realidad, que
cualquier supuesto "contenido" no relacionado con las reglas de estructura y evolución de la
realidad

41
es irrelevante. (Aunque se trata de una observación trivial en la medida en que "sin relación" e
"irrelevante" son sinónimos, parece haber sido ampliamente ignorada por muchos que deberían
haberlo sabido).

Dicho de otro modo: si la parte "nouménica" (perceptualmente independiente) de la realidad no


estuviera realmente relacionada con la parte fenoménica (cognición-isomórfica), entonces estas
dos "mitades" de la realidad no coincidirían ni compartirían un medio conjunto que las
relacionara. En ese caso, simplemente se separarían, y cualquier "realidad" integrada que
supuestamente contuviera a ambas fracasaría por falta de un modelo integrado. Donde M
(mente) se identifica con la cognición y R (realidad) con la información físicamente incorporada,
M=R dice que la realidad consiste en todas partes en una sustancia común, la infocognición,
que tiene la doble naturaleza de mente y realidad (informacional).

La propiedad M=R ocupa el lugar que deja el Principio de Reducibilidad Lingüística al eliminar la
distinción entre teoría y universo. A su luz, la descripción teórica de la realidad por seres
humanos contenidos en la realidad equivale a que la realidad se describa a sí misma. (Teniendo
en cuenta que una teoría es una construcción mental, esto puede ilustrarse simplemente
sustituyendo Mente y Realidad en el diagrama anterior por Teoría y Universo, y Mente Realidad
por Teoría Universo). Esto hace que la teoría sea reflexiva y, por tanto, lo suficientemente
inclusiva por definición como para describir todo el universo, incluyendo lo que es racional,
abstracto y subjetivo, y lo que es empírico, concreto y objetivo. La disolución de esta distinción
puede considerarse una reducción.

Así pues, ahora sabemos que la realidad es algo más que una relación lingüística sindifónica
autocontenida que comprende un colector descriptivo cerrado de definiciones vinculadas que
contienen los medios de su propia configuración, composición, atribución, reconocimiento,
procesamiento e interpretación. También es una teoría de autoprocesamiento idéntica a su
universo.

Coherencia y consistencia sintácticas: El principio de unidad múltiple (MU)

El universo contiene topológicamente aquello que contiene descriptivamente al universo. MU, la


configuración informativa mínima y más general de la realidad, define la relación que se
mantiene entre la unidad y la multiplicidad, el universo y sus abigarrados contenidos. A través de
su estructura, el universo y sus contenidos se incluyen mutuamente, proporcionándose un medio.

En otras palabras, podemos caracterizar equivalentemente los contenidos del universo como
estando topológicamente "dentro" de él (inclusión topológica), o caracterizar el universo como
estando descriptivamente "dentro" de sus contenidos, ocupando sus sintaxis internas como
estado adquirido (inclusión descriptiva). El universo incluye genéricamente a sus contenidos
sirviéndoles de unisecto sintáctico, mientras que los contenidos contienen al universo en un
sentido más específico que implica historias de sucesos concretos que se "enredan" mediante la
interacción. Desde el primer punto de vista, la coherencia sintáctica del medio general refuerza
la coherencia mutua de los contenidos, mientras que desde el segundo punto de vista, las
sintaxis coherentes de sus contenidos contienen y reconocen y transforman el medio de forma
coherente. Así, el universo refuerza su propia coherencia mediante la doble autocontención.

42
Esquema 10: En el diagrama sindifónico [Esquema 6], se aprecia claramente la contención de los objetos por el
medio, pero no se aprecia la contención del medio por los objetos. Teniendo en cuenta que los términos sintaxis
y contenido son hasta cierto punto designaciones relativas, el nodo superior del Diagrama 10 corresponde al
medio global (unisecto sintáctico global o "metasintaxis" de la realidad), mientras que el nodo inferior corresponde
a los objetos que contiene (operadores sintácticos contenidos en el medio); cada uno es una unidad múltiplex. La
coherencia fluye de la sintaxis global al contenido local por medio de la contención topológica global, reforzando
así la unidad a través de diversos locales, y de vuelta a la sintaxis global en múltiples flujos entrelazados
generados por la transducción cruzada del contenido. La sintaxis se convierte en estado y el estado en sintaxis
(entendiendo por "sintaxis" una distribución "ectosintáctica" de operadores sintácticos). De este modo, el universo
sigue siendo coherente y consistente en el curso de la evolución.

El MU expresa la simetría sindifónica de la sintaxis y el contenido en el nivel espaciotemporal de


la realidad. Del mismo modo que la sindifeonesis puede considerarse una paradoja que
identifica la diferencia con la igualdad, MU puede considerarse una forma última de paradoja
que identifica la multiplicidad y la unidad espaciotemporal (el diagrama MU es una explosión del
diagrama de relación sindifeónico en el que la dimensión de estratificación se divide en hebras
descriptivas y topológicas o "dimensiones temporales"). La estructura MU resuelve la paradoja
MU in situ mediante la estratificación dual, proporcionando un cierre que la estratificación
informacional abierta de la teoría de tipos no puede proporcionar. Dado que MU puede
considerarse la resolución de la paradoja que describe, su significado, como el de la
sindifeonesis, puede expresarse de la siguiente manera: la realidad es una paradoja
autorresolutiva.

Por cierto, no es necesario considerar a las MU como el garante último de la coherencia; ese
honor puede corresponder sin problemas a la estabilidad de la propia realidad perceptiva.
Sencillamente, la estabilidad sintáctica de la realidad anula todas y cada una de las objeciones
relativas a las limitaciones de los sistemas formales. MU se limita a describir cómo la realidad,
considerada como una teoría SCSPL reflexiva, alcanza una estabilidad intrínseca en el curso
de su evolución. Por lo tanto, no funciona como un algoritmo garantizado para terminar en
consistencia pero no en inconsistencia, y por lo tanto no está en conflicto con la indecidibilidad.
La estabilidad de la realidad afirma su consistencia con independencia de que una teoría menor
sea o no consistente.

MU sirve como concepto unificador para un complejo de ideas que tienen que ver con la
coherencia y la consistencia en el contexto teórico de la realidad, incluida la hología y varios
principios de dualidad de CTMU.

El principio de la hología (autocomposición)

La hología, un análogo lógico de la holografía que caracteriza la relación más general entre la
realidad y sus contenidos, es una forma de autosimilaridad por la que la estructura general del
universo se distribuye por todas partes en su interior como sintaxis aceptante y transductora,
dando lugar a un medio sintáctico homogéneo. Es decir, dado que la realidad requiere una

43
sintaxis consistente en leyes generales de estructura y evolución, y no hay nada más que la
propia realidad para servir a este propósito, la realidad comprende su propia sintaxis
autodistribuida bajo MU (que caracteriza la relación global entre sintaxis y contenido).

44
La propia propiedad hológica está distribuida por la realidad. Es decir, el límite informativo de un
objeto coherente (operador sintáctico) está hológicamente multiplexado con respecto al estado
(atributo y valor) para definir el interior descriptivo del operador a medida que participa en el
autoprocesamiento global sin entrada. Esta multiplexación de posibilidades no es más que la
replicación de la estructura del límite sobre el interior del mismo en función del tiempo. Una vez
más, el operador no tiene en última instancia nada más en términos de lo cual expresar su
capacidad espaciotemporal.

La hología está implicada por MAP porque la realidad está cerrada bajo composición y
atribución; está implicada por M=R porque la realidad está compuesta de operadores sintácticos
con funcionalidad mental o cognitiva generalizada; y está implicada por sindifeonesis y MU
porque es una expresión de la relación entre el medio espaciotemporal global y sus contenidos.

Principios de dualidad

La dualidad es un concepto omnipresente en matemáticas, que aparece en campos que van


desde la lógica y la teoría de categorías hasta la geometría y el análisis. La relación de dualidad
es simétrica; si al dualizar la proposición A se obtiene la proposición B, al dualizar B se obtiene
A. En geometría proyectiva, por ejemplo, la operación de dualización consiste en intercambiar
los términos "punto" y "recta" en las proposiciones que los contienen, como en "Dos puntos no
coincidentes determinan una recta" 🡨dualize🡪 "Dos rectas no paralelas".
determinan un punto". Replantear esto como "las rectas son funciones de los puntos" 🡨dualizar🡪
"los puntos son
funciones de las líneas" revela una relación de dualidad entre funciones y argumentos. Así, en
álgebra vectorial, el espacio dual V* de un espacio vectorial V es el espacio de todos los
funcionales lineales sobre V (es decir, todos los mapas lineales de V a R), mientras que V**
es el espacio de todos los mapas lineales de V* a R.

Una forma aún más sorprendente de dualidad se encuentra en la teoría de grafos, donde el grafo
dual de un grafo plano transforma caras en vértices y vértices en caras sin alterar su patrón
general de adyacencias. El límite de cada cara se sustituye por aristas transversales que
convergen en su vértice dual (y viceversa), y la relación de adyacencia se redefine en
consecuencia. Cuando las aristas reciben una interpretación temporal, pueden producirse
transformaciones interesantes; por ejemplo, las circulaciones a lo largo de los límites de las
caras se convierten en "giros de vértices", y el movimiento a lo largo de una arista puede
caracterizarse como una operación entre las caras duales de sus puntos extremos.

Así pues, los principios de dualidad se presentan en dos variedades comunes, una que
transpone relaciones espaciales y objetos, y otra que transpone objetos o relaciones espaciales
con mapeos, funciones, operaciones o procesos. La primera se denomina dualidad espacio-
objeto (o S-O, o S🡨🡪O); la segunda, dualidad tiempo-espacio.
(o T-S/O, o T🡨🡪S/O). En cualquier caso, la característica central es una transposición de elemento
y una relación (espacial o temporal) de elementos. Juntas, estas dualidades dan lugar al concepto
de trialidad, que representa la posibilidad universal de permutar coherentemente los atributos
tiempo, espacio y objeto con respecto a diversas estructuras. De aquí podemos extraer un
tercer tipo de dualidad: Dualidad ST-O. En este tipo de dualidad, asociada a algo llamado
dualidad conspansiva, los objetos pueden ser "dualizados" a transductores espaciotemporales,
y el universo físico "simulado" internamente por sus contenidos materiales.

M=R, MU y la hología se basan, al menos parcialmente, en la dualidad.

Principio de dualidad atributiva (topológico-descriptiva, estado-sintaxis)

Cuando los puntos pertenecen a conjuntos y las líneas son relaciones entre puntos, también se
da una forma de dualidad entre conjuntos y relaciones o atributos y, por tanto, entre teoría de
conjuntos y lógica. Cuando los conjuntos contienen sus elementos y los atributos describen
45
distributivamente sus argumentos, esto implica una relación dual entre la contención topológica
y la atribución descriptiva modelada mediante diagramas de Venn. Esencialmente, cualquier
relación de contención puede interpretarse de dos maneras: en términos de posición con
respecto a las líneas o superficies o hipersuperficies delimitadoras, como en el conjunto de
puntos

46
topología y sus refinamientos geométricos (⊃T ), o en términos de relaciones descriptivas de
distribución, como en la gramática diagramática veneciana de la sustitución lógica (⊃D ).37

La dualidad atributiva o TD se refleja en el hecho de que los conjuntos y la lógica se describen


mediante la misma estructura algebraica, el álgebra de Boole, que expresa su relación dual en
la relación entre sus dos operaciones. Expresadas en términos de teoría de conjuntos, estas
operaciones son unión y
intersección (∪,∩); en términos lógicos, son OR y AND (∨,∧). (∪,∩) y (∨,∧) se relacionan
como sigue: la unión (A∪B) de dos conjuntos A y B está formada por todos y sólo los
elementos que pertenecen a A o a B o a ambos (∀x∈A∪B: x∈A ∨ x∈B), mientras que la
intersección (A∩B) de A y B consiste en todos y sólo los elementos que pertenecen tanto a A
como a B (∀x∈A∩B: x∈A ∧ x∈B). Este tipo de dualidad es bien conocido; se refiere al hecho
de que todo enunciado atributivo que define una relación de predicados
puede reformularse como una afirmación sobre conjuntos (y viceversa).

Pero la relación entre la teoría de conjuntos y la lógica es aún más interesante, ya que cada una
de ellas tiene una afinidad representacional particular con una sola de estas operaciones. Es
decir, la teoría de conjuntos tiende a centrarse en los objetos (conjuntos y elementos), mientras
que la lógica tiende a centrarse en los atributos, o "restricciones de contorno" informativas que
deben satisfacer los objetos. Así, la teoría de conjuntos define en última instancia los conjuntos
en términos de los objetos que contienen, mientras que la lógica tiende a definirlos "desde fuera
hacia dentro" en las restricciones de los límites de intersección a los que se ajustan. La
diferencia radica en el functor univalente no (~), en el que se definen directa o indirectamente la
complementación y la intersección, pero no la unión.

Por ejemplo, mientras que es bastante fácil identificar un elemento o conjunto individual
nombrándolo constructivamente o "enumerándolo", por ejemplo, "X", identificar su complemento
a menudo requiere que su nombre se utilice como base de una restricción que pueda aplicarse
a todo un contexto finito o infinito en una operación atributiva, por ejemplo, "no-X". La relación
de dualidad entre los nombres
y las restricciones queda bien plasmado por las leyes de De Morgan, ~A∩~B=~(A∪B) y
~A∪~B=~(A∩B), que lo expresan permutando las operaciones objetivas y atributivas ∪ y ∩.

Dado que los estados se expresan topológicamente, mientras que las estructuras sintácticas de
sus operadores subyacentes se expresan descriptivamente, la dualidad atributiva se denomina a
veces dualidad estado-sintaxis. Como la información requiere una organización sintáctica,
equivale a una valoración de la sintaxis cognitiva/perceptiva; a la inversa, el reconocimiento
consiste en una restricción sustractiva del potencial informativo mediante una adquisición aditiva
de información. Así pues, la dualidad TD relaciona la información con el potencial informativo
delimitado por la sintaxis, y la percepción (adquisición de estados cognitivos) con la cognición.

En un diagrama de Venn, el contenido de los círculos refleja la estructura de sus límites; los
límites son los descriptores primarios. El interior de un círculo es simplemente una
"interiorización" o autodistribución de su "restricción de límites" sintáctica. Así, los círculos
anidados correspondientes a objetos idénticos muestran una forma descriptiva de contención
correspondiente a la estratificación sintáctica, con niveles subyacentes correspondientes a
coberturas sintácticas.

Esto conduce a una forma relacionada de dualidad, la dualidad constructiva-filtrativa.

Dualidad constructiva-filtrativa

Cualquier conjunto que pueda construirse añadiendo elementos al espacio entre dos paréntesis
puede definirse por restricción en el conjunto de todos los conjuntos posibles. La restricción
implica la superposición de restricciones de tipo Venn, que son de naturaleza sustractiva; por
tanto, es como un proceso sustractivo de color que implica el apilamiento de filtros. Los
elementos, por otro lado, son aditivos, y el proceso de construcción de conjuntos es, por tanto,
47
aditivo; es como un proceso de color aditivo que implica la iluminación de los elementos de color
de los píxeles en un monitor de color. La dualidad CF afirma simplemente la equivalencia
general de estos dos tipos de procesos con respecto a la realidad lógico-geométrica.

48
La dualidad CF captura las ramificaciones temporales de la dualidad TD, relacionando
operaciones geométricas sobre conjuntos de puntos con operaciones lógicas sobre predicados.
Esencialmente, la dualidad CF dice que cualquier estado geométrico o transformación continua
es equivalente a una operación que implica la "filtración" mutua de potenciales de estado
hológicos que se cruzan. Los estados y los objetos, en lugar de construirse desde el nivel de
objeto hacia arriba, pueden considerarse refinamientos filtrativos de relaciones de orden
superior generales e internamente no especificadas.

La dualidad CF es necesaria para mostrar cómo un universo puede ser de "suma cero"; sin ella,
no hay forma de refinar los requisitos objetivos de los procesos constructivos "a partir de la
nada". En la cosmogonía CTMU, la "nada" se define informacionalmente como restricción cero o
libertad pura (telesis no ligada o UBT), y la aparente construcción del universo se explica como
una autorrestricción de este potencial. En un reino de potencial ontológico ilimitado, definir una
restricción no es tan sencillo como escribirla; dado que las restricciones actúan de forma
restrictiva sobre el contenido, restricción y contenido deben definirse simultáneamente en una
relación sintaxis-estado unificada.

Dualidad conspansiva

Este principio fue adumbrado hasta cierto punto por la siguiente cita irónica atribuida a Arthur
Eddington38 sobre el universo en expansión:

"Caminamos por el escenario de la vida, intérpretes de un drama en beneficio del


espectador cósmico. A medida que avanzan las escenas, se da cuenta de que
los actores son cada vez más pequeños y la acción más rápida. Cuando se abre
el último acto, el telón se levanta con actores enanos que se apresuran a
interpretar sus papeles a una velocidad frenética. Cada vez más pequeños.
Cada vez más rápido. Un último borrón microscópico de intensa agitación. Y
después, nada".

La visión surrealista de Eddington acompañaba una propuesta irónica según la cual la teoría del
universo en expansión podría ser sustituida por una teoría del "átomo en retroceso". Era, pues,
un poco exagerada en aras del humor. De hecho, Eddington no estaba lo suficientemente
interesado en la idea como para desarrollar sus implicaciones más allá de un nivel muy
rudimentario. Sin embargo, resulta que estaba bordeando los límites de un importante principio
de dualidad.

La expansión cósmica y el movimiento físico ordinario tienen algo en común: ambos son lo que
podríamos llamar ectomorfismos. En un ectomorfismo, algo es mapeado, generado o replicado
en algo externo a él. Sin embargo, el Principio de Realidad afirma que el universo es
analíticamente autocontenido, y el ectomorfismo es inconsistente con la autocontención.
Mediante el principio de dualidad conspansiva, el ectomorfismo está unido al endomorfismo,
según el cual las cosas se mapean, generan o replican dentro de sí mismas. Mediante el
endomorfismo conspansivo, los objetos sintácticos se mapean inyectivamente en sus propios
interiores hológicos desde sus propios límites sintácticos.

En el lenguaje de la dualidad TD y CF, esto cambia el énfasis de la geometría espaciotemporal a


la contención descriptiva, y del procesamiento constructivo al filtrativo. Como resultado, se
forman nuevos estados dentro de las imágenes de estados anteriores. Nada se mueve ni se
expande "a través" del espacio; el espacio es estado, y cada reubicación de un objeto es sólo un
movimiento de un nivel de estasis perfecta a otro. Esto vincula el movimiento convencional, en el
que las líneas del mundo se crean constructivamente mediante adiciones de estado en los
diagramas de Minkowski, con el endomorfismo diferencial, en el que los potenciales descriptivos
internos de los atributos se restringen acumulativamente.

Un diagrama espaciotemporal (de Minkowski) es una especie de "celosía de sucesos" en la que


los nodos representan sucesos y sus líneas del mundo conectivas representan los objetos que
49
interactúan en esos sucesos. Los sucesos ocurren en los focos de los conos de luz pasados y
futuros a los que pertenecen las líneas del mundo. Si pudiéramos observar el eje temporal de un
diagrama de este tipo en una sección transversal espacial, veríamos algo muy parecido a un
diagrama de Venn con círculos correspondientes a secciones transversales de conos de luz.
Esta rotación de

50
el diagrama corresponde a la dualización conspansiva, que convierte un entramado
espaciotemporal de líneas del mundo y acontecimientos en una serie estratificada de
diagramas de Venn.

Diagrama 11: En la ilustración anterior, una sección transversal espacial de un diagrama espaciotemporal (línea
azul) se gira hacia el espectador y se muestra a lo largo del eje temporal (rectángulo azul). El resultado es un
diagrama de Venn en el que los círculos representan objetos y sucesos, o relaciones interactivas (n>1) de
objetos. Es decir, cada círculo representa las "funciones de onda cuánticas entrelazadas" de los objetos que
interactuaron entre sí para generarlo. Los pequeños puntos en los centros de los círculos representan los
sucesos y objetos iniciales a partir de los cuales han surgido los círculos, mientras que los puntos gemelos donde
se solapan los círculos reflejan el hecho de que cualquier posible suceso nuevo, o interacción entre objetos
implicados en los sucesos antiguos, debe producirse por adquisición mutua en la intersección. El crecimiento
hacia el exterior (o, por dualidad conspansiva, la absorción mutua) de los círculos se denomina expansión
interior, mientras que el colapso de sus objetos en nuevos acontecimientos se denomina requantización. Los
propios círculos se denominan IED, abreviatura de dominios expansivos internos, y corresponden a pares de
operadores sintácticos interactivos implicados en sucesos perceptivos generalizados (nótese la "evacuación"
hológica y la absorción mutua de los operadores). El espaciotiempo puede ilustrarse en términos de una
estratificación de diagramas de Venn, cuyo contacto mutuo se denomina "superposición ampliada" (en el mundo
real, los diagramas de Venn son tridimensionales en lugar de planos, los círculos son esferas, y la
"estratificación" se define en consecuencia). La superposición ampliada distribuye "atemporalmente" los sucesos
antecedentes sobre los sucesos consecuentes, poniendo así el espaciotiempo en autocontacto temporalmente
ampliado. A la luz del Principio Telic (véase más adelante), este escenario implica una nueva interpretación de la
teoría cuántica, la suma sobre futuros. La suma sobre futuros implica una generalización atemporal del "proceso",
la recursividad télica, a través de la cual el universo efectúa sobre la marcha la maximización de un parámetro
global de autoselección, la utilidad generalizada.

En un diagrama de Venn, los círculos representan conjuntos a través de sus atributos definitivos.
Los atributos representados por los círculos son sinéticos (distribuidos sintácticamente y
homogéneos con respecto a las posibles diferencias de estado), y el atributo representado por
un círculo concreto es heredable uniformemente por los elementos del conjunto representado
por cualquier círculo que se encuentre en su interior. En el diagrama de Venn espaciotemporal
que acabamos de describir, las secciones transversales circulares del cono luminoso
corresponden a objetos y sucesos que se relacionan precisamente de esta manera. Dado que
los objetos a escala cuántica sólo existen cuando participan en sucesos observacionales,
incluidas sus "observaciones generalizadas" mutuas, se supone que sus líneas del mundo sólo
existen entre sucesos y, de hecho, se retrodicen sintácticamente, junto con el continuo, a partir
de los últimos sucesos en los que se sabe que han participado. Esto hace posible omitir por
completo las líneas del mundo específicas, sustituyéndolas por una serie de diagramas de Venn
en los que los círculos se expanden interiormente, se interpenetran y "colapsan en puntos" en
cada acontecimiento interactivo de observación generalizada. Este escenario es general y se
aplica incluso a objetos macroscópicos formados por muchas partículas de materia; la mayor
definición de las líneas del mundo de los objetos macroscópicos puede imputarse a una mayor
frecuencia de colapso debida a la densidad interactiva entre sus partículas constituyentes.

Las áreas dentro de los círculos corresponden a potenciales de sucesos y, cuando los sucesos
se rigen por las leyes de la física, a instancias potenciales de la ley física o "sintaxis
nomológica". Cuando cada círculo corresponde a dos o más objetos, también incluye potenciales
de objeto. Es decir, los límites circulares de los círculos de Venn pueden interpretarse como los
51
de objetos "potencializados" en proceso de absorción de sus vecindarios espaciotemporales.
Dado que los potenciales de suceso y los potenciales de objeto coinciden, puede decirse que las
instancias potenciales de la ley residen "dentro" de los objetos y, por tanto, pueden considerarse
funciones de sus reglas internas o "sintaxis de objeto". De este modo, los objetos se convierten
en operadores sintácticos, y los acontecimientos en intersecciones de sintaxis nomológica en la

52
valor común de un parámetro de estado observable, la posición. El círculo correspondiente al
nuevo suceso representa un atributo consistente en todas las relaciones nomológicas asociadas
adecuadas a la naturaleza de la interacción, incluidos los agregados conservados, y forma una
"cobertura sintáctica" puntual (de estado) para todos los potenciales posteriores.

Obsérvese que, en este escenario, el espaciotiempo evoluciona lingüísticamente en lugar de


geometrodinámicamente. Aunque cada círculo de Venn parece expandirse continuamente, su
contenido no cambia; su atributo asociado permanece estático a la espera de sucesos
posteriores en los que intervengan los objetos que lo crearon. Puesto que nada cambia
realmente hasta que un nuevo acontecimiento "sustituye" al anterior, es decir, hasta que un
nuevo círculo aparece dentro del anterior por incrustación sintáctica, los círculos son
intrínsecamente indefinidos en su duración y, por tanto, intrínsecamente atemporales. El tiempo
surge estrictamente como una relación ordinal entre círculos y no dentro de los propios círculos.
Con respecto a los elementos invariables en el tiempo de la sintaxis activa en cualquier estado
dado (círculo), la distinción entre duración cero y no cero carece intrínsecamente de sentido;
tales elementos son heredables por sustitución y se convierten en ingredientes sintácticos de
estados posteriores. Dado que cada círculo está estructuralmente autodistribuido, no es
necesario transmitir nada de una parte de él a otra; las restricciones de localidad sólo surgen
con respecto a invariantes adicionales activadas diferencialmente dentro de los círculos que
representan estados posteriores y rompen la simetría hológica de sus antecedentes. De este
modo, la expansión ofrece un cierto alivio de los problemas asociados a la llamada "no localidad
cuántica".

Dado que la contracción de un objeto dentro de su imagen anterior equivale a una forma de
sustitución lógica en la que el objeto es "descrito" o determinado Venn-diagramáticamente por
su estado anterior, no hay forma de distinguir entre la expansión sistémica hacia fuera y la
sustitución de contenido hacia dentro, o entre las "gramáticas" dinámicas y lógicas asociadas.
Esto no es más que un replanteamiento de la dualidad atributiva; las relaciones de contención
topológica entre conjuntos de puntos son equivalentes a la predicación descriptiva de la verdad
de las afirmaciones que afirman la contención, y a las relaciones de distribución entre
descriptores de estado. Junto con la simetría intrínseca de los sistemas indefinidos
externamente, la dualidad atributiva elimina cualquier posible distinción lógica o geométrica
entre la expansión hacia el exterior de un universo autocontenido mientras su contenido
permanece estático en tamaño, y un endomorfismo lógico en el que el universo permanece
estático mientras los estados de su contenido son sustituidos recursivamente por estados
anteriores.

Ya se ha señalado en relación con el MAPA que cuando las dimensiones externas de un sistema
no están definidas, no se puede hacer ninguna distinción en cuanto al tamaño más allá de la
relación entre el tamaño del sistema y su contenido. Consideremos una simple analogía
aritmética: 1/2 = 1000/2000 = 1(109999 )/2(109999 ) = (...).
Cuando el numerador y el denominador de una fracción se multiplican por un número
determinado, el valor de la fracción no cambia; es independiente de las distinciones relativas al
tamaño del multiplicador. Del mismo modo, la proporcionalidad intrínseca de un sistema
autónomo es independiente de cualquier medida externa. Esto implica que con respecto a un
universo autocontenido para el que no existe ninguna medida externa, no se puede hacer
ninguna distinción entre la expansión del sistema con respecto a su contenido, y la contracción
de su contenido con respecto a él. De hecho, dado que lo indefinido no puede cambiar -no hay
nada definido con respecto a lo cual sea posible el cambio-, la expansión aparente del
contenedor no puede definirse extrínsecamente, sino que implica una contracción intrínseca
conspansiva equivalente de su contenido.

Así, la dualidad conspansiva relaciona dos visiones complementarias del universo, una basada
en los estados externos (relativos) de un conjunto de objetos, y otra en las estructuras y
dinámicas internas de los objetos considerados como procesadores del lenguaje. La primera,
que describe el universo tal y como suele entenderse en física y cosmología, se denomina
ERSU, abreviatura de Expanding Rubber Sheet Universe (Universo de lámina de caucho en
expansión), mientras que la segunda se denomina USRE (ERSU deletreado al revés),
53
abreviatura de Universe as a Self-Representational Entity (Universo como entidad
autorrepresentativa). Simplificando, ERSU es como un conjunto, concretamente un conjunto
topológico-geométrico de puntos, mientras que USRE es como un lenguaje nomológico
autodescriptivo. Mientras que la ERSU se expande en relación con los tamaños invariantes de su
contenido, la USRE "conspira", manteniendo invariante el tamaño del universo al tiempo que
permite que los tamaños de los objetos y las escalas temporales se reduzcan en proporción
mutua, preservando así la covarianza general.

54
Esto tiene ciertas implicaciones interesantes. En primer lugar, mientras que normalmente se
supone que el tamaño de los objetos materiales permanece fijo mientras que el de todo el
universo cambia "ectomórficamente" a su alrededor, la expansión consensual mantiene
invariable el tamaño del universo y cambia endomórficamente el tamaño de los objetos. Dado
que el universo desempeña ahora el papel de invariante, existe una tasa estándar global de
expansión interna o absorción mutua entre los contenidos del universo ("invariancia c"), y debido
a la covariancia sintáctica, los objetos deben redimensionarse o "requantizarse" con cada nuevo
acontecimiento de acuerdo con un factor de reescalado constante (independiente del tiempo)
que reside en la sintaxis global. En segundo lugar, dado que la tasa de contracción es una
función constante de una relación de tamaño cambiante, el universo parece, desde un punto de
vista interno, estar acelerando su "expansión", lo que conduce al dual conspansivo de una
constante cosmológica positiva.39

La dualidad conspansiva, cuyo papel en la CTMU es en cierto modo análogo al del Principio de
Equivalencia en la Relatividad General, es la única salida de una "torre de tortugas" ectomórfica
infinita. Si la geometría perceptiva de la realidad careciera de una representación dual
conspansiva, el movimiento de cualquier tipo requeriría un conjunto espacial fijo o un "espacio
de fondo" ectomórfico que requiriera una explicación propia, y así sucesivamente torre abajo. La
conspansión permite que el universo se autoconfigure a través de la retroalimentación temporal.
Cada círculo de conspiración representa un potencial de suceso que corresponde a una
determinada combinación de ley y estado; incluso después de que uno de estos círculos
intrínsecamente atemporales se haya "expandido interiormente" a través de vastas extensiones
de espacio y tiempo, su suceso fuente sigue siendo actual para cualquier cosa que interactúe
con él, por ejemplo, un ojo que capte uno de sus fotones. Al mismo tiempo, la conspiración
proporciona a la función de onda cuántica de los objetos un nuevo hogar: dentro de los propios
objetos que conspiran. Sin ella, la función de onda no sólo no tiene hogar, sino que no coincide
con ningún sistema lógico evolutivo de predicados o "leyes de la física".
Si se elimina la conspiración, la realidad se convierte en un espacio inexplicable lleno de líneas
del mundo deterministas y de la pesada carga de problemas que cabe esperar cuando la
geometría se divorcia de la lógica.

Cuando la realidad se caracteriza por el monismo infocognitivo de aspecto dual (leer más),
consiste en unidades de infocognición que reflejan un acoplamiento distribuido de sintaxis
transductiva y contenido informativo. La expansión describe la "alternancia" de estas unidades
entre los aspectos duales (generalizado-cognitivo e informacional) de la realidad y, por tanto,
entre sintaxis y estado. Esta alternancia, que permite refinamientos mutuos localizados de la
sintaxis cognitiva y el estado informacional, es esencial para un proceso evolutivo denominado
recursividad télica. La recursividad télica requiere otro principio basado en la dualidad
conspansiva, el Principio de Superposición Ampliada, según el cual los operadores pueden ser
adquiridos simultáneamente por múltiples telones, o relaciones sintaxis-estado
espaciotemporalmente extensas que implican a los operadores genéricos en acontecimientos
potenciales y guían oportunamente su decoherencia.

Obsérvese que la conspansividad explica la "flecha del tiempo" en el sentido de que no es


simétrica bajo inversión. Por otro lado, el anidamiento conspansivo de los sucesos atemporales
pone todo el tiempo en "autocontacto simultáneo" sin comprometer la ordinalidad. La dualidad
conspansiva puede verse como la consecuencia de un tipo de simetría gauge (medida) por la
que sólo son importantes las dimensiones relativas del universo y su contenido.

El principio de superposición ampliado

En mecánica cuántica, el principio de superposición de estados dinámicos afirma que los


posibles estados dinámicos de un sistema cuantizado, como las ondas en general, pueden
superponerse linealmente y que, por tanto, cada estado dinámico puede representarse
mediante un vector perteneciente a un espacio vectorial abstracto. El principio de superposición
permite definir los llamados "estados mixtos", que consisten en muchos "estados puros"
posibles, o conjuntos definidos de valores de parámetros de estado. En tal superposición, los
55
parámetros de estado pueden tener simultáneamente muchos valores.

El principio de superposición pone de manifiesto ciertos problemas de la mecánica cuántica. Un


problema es que la mecánica cuántica carece de un modelo convincente en el que interpretar
cosas como los "estados mixtos" (las ondas por sí solas no bastan). Otro problema es que,
según el principio de incertidumbre,

56
los últimos estados de un par de partículas en interacción suelen ser insuficientes para
determinar completamente sus próximos estados. Esto, por supuesto, plantea una pregunta:
¿cómo se determinan realmente sus próximos estados? ¿Cuál es la fuente de la medida
adicional de determinación necesaria para seleccionar sus próximos sucesos ("colapsar sus
funciones de onda")?

La respuesta no es, como algunos podrían suponer, "aleatoriedad"; la aleatoriedad equivale a


acausalidad o, alternativamente, a incompresibilidad informativa con respecto a cualquier
plantilla causal distribuida o ingrediente de sintaxis causal. Por tanto, o bien no es explicación en
absoluto, o bien implica la existencia de una "causa" que excede la capacidad representativa de
las leyes distribuidas de causalidad. Pero lo primero es absurdo y anticientífico, y lo segundo
requiere que se tengan en cuenta explícitamente órdenes superiores de causalidad... más de lo
que se puede discernir fácilmente en una simple invocación mágica del "azar".

El principio de superposición, como otros aspectos de la mecánica cuántica, se basa en el


supuesto del markovianismo físico.40 Se refiere a estados mixtos entre sucesos adyacentes,
ignorando la posibilidad de relaciones no aleatorias temporalmente extensas no atribuibles
totalmente a leyes distribuidas. Al poner eventos temporalmente remotos en contacto descriptivo
extendido entre sí, el Principio de Superposición Extendida permite una retroalimentación télica
intertemporal coherente y, por tanto, desempeña un papel necesario en la autoconfiguración
cósmica. Entre las relaciones determinantes de orden superior en las que pueden estar
implicados sucesos y objetos se encuentran las útiles relaciones estado-sintaxis denominadas
telones, atractores telónicos capaces de guiar la evolución cósmica y biológica.

Dado que la teoría cuántica no parece irrevocablemente apegada al markovianismo, ¿por qué
no se ha considerado seriamente la posibilidad de relaciones causales de orden superior? Una
de las razones es la geometría del espaciotiempo, que parece confinar los objetos a "líneas del
mundo" unidimensionales en las que sus estados de transición están separados por segmentos
intermedios que impiden que se "mezclen" de forma globalmente significativa. Por este motivo,
la superposición sólo suele aplicarse a las transiciones de estado individuales, al menos por
parte de los partidarios de las interpretaciones conservadoras de la mecánica cuántica.

La dualidad conspansiva, que incorpora componentes de TD y CF, elimina esta restricción al


poner los eventos de transición de estado en contacto descriptivo directo. Debido a que los
intervalos geométricos entre los eventos son generados y seleccionados por el procesamiento
descriptivo, ya no tienen fuerza separativa. Sin embargo, dado que las líneas del mundo reflejan
con precisión las leyes distribuidas en términos de las cuales se expresan las transiciones de
estado, no se reducen a la condición de artefactos interpolados sin realidad dinámica; sus
cualidades separativas son simplemente anuladas por la dinámica de la sintaxis de estado de su
representación dual conspansiva.

Al ampliar el concepto de superposición para incluir relaciones de orden superior no triviales, el


Principio de Superposición Ampliado abre la puerta al significado y al diseño. Dado que también
admite relaciones de distribución entre estados, sucesos y estratos sintácticos, convierte la
cosmogonía en un acontecimiento distribuido, coherente y continuo, en lugar de un momento
gastado y descartado de la antigua historia del cosmos. De hecho, la justificación habitual de la
participación del observador -que un observador en el presente puede colapsar perceptualmente
las funciones de onda de acontecimientos antiguos (emisión de fotones)- puede considerarse
una consecuencia de esta relación lógica.

Supertautología

La verdad, predicado que representa la inclusión en un dominio, es la propiedad lógica en virtud


de la cual una cosa puede identificarse y distinguirse de otra en cualquier nivel de resolución.
Todas las teorías aspiran a la verdad, y la teoría de la realidad no es una excepción. Con
respecto a la ciencia, existe un problema con la verdad: más allá del nivel de la observación
directa, no puede certificarse por medios empíricos. La culpa la tienen diversas formas de
57
incertidumbre, la ambigüedad teórico-modelo y el problema de la inducción: las
generalizaciones científicas son circulares en la medida en que se basan necesariamente en la
suposición

58
que la naturaleza es uniforme. El problema de la inducción limita efectivamente la certeza al
razonamiento matemático.

No es de extrañar, ya que la verdad es, en última instancia, un concepto matemático. En lógica,


la verdad se define mediante expresiones siempre verdaderas llamadas tautologías. Una
tautología lógica posee tres propiedades distintivas: es descriptivamente universal, está cerrada
bajo autocomposición recursiva y es interna y externamente consistente en los niveles sintáctico
y semántico de referencia. Puesto que la lógica es la teoría de la verdad, la forma de construir
una teoría plenamente verificable es comenzar con la lógica y desarrollar la teoría mediante
reglas o principios bajo los cuales la verdad sea heredable. Dado que verdad es sinónimo de
tautología lógica, esto significa desarrollar la teoría adjuntando reglas que en sí mismas tengan
una estructura tautológica -es decir, que sean universales, cerradas y consistentes- y
extrayendo lógicamente las implicaciones. Una teoría de la realidad construida de este modo se
denomina supertautología.

En una teoría supertautológica de la realidad, no es necesario suponer la uniformidad de la


naturaleza con respecto a ciertos tipos de generalización. Por ejemplo, la covarianza nomológica, la
invarianza de la tasa de autoprocesamiento global (invarianza c) y la expansión acelerada del
sistema que se manifiesta internamente.

Reducción y ampliación

Los mayores avances teóricos suelen asociarse a dos procesos complementarios: la reducción y
la ampliación. Los componentes conceptuales de una teoría se reducen a componentes más
fundamentales, y la teoría se amplía mediante la aparición de relaciones nuevas y más
generales entre ellos. La CTMU reduce la realidad a información autotransductora y, en última
instancia, a telesis, utilizando la estructura sintáctica cerrada y reflexiva de la primera como
plantilla para la teoría de la realidad.

En ciencia, todo requiere una explicación... incluso las explicaciones. No sólo las
observaciones exigen teorías explicativas, sino que las teorías requieren explicaciones propias.
Por desgracia, a veces se olvida que hasta que algo no se ha explicado de forma explicable, no
se ha explicado correctamente del todo. Si una teoría no se explica por sí misma, hay que
reducirla a una teoría más fundamental que la explique; de lo contrario, sólo se basa en
suposiciones.

Por ejemplo, consideremos una explicación según la cual "los pájaros pueden volar porque
tienen alas". Sin una explicación de la resistencia atmosférica, esta explicación es incompleta;
no contiene ninguna explicación de por qué o cómo las alas permiten volar, simplemente se
basa en la suposición de que lo hacen.
Por tanto, aunque es cierta en la medida en que lo es, omite conocimientos de apoyo cruciales y
no puede sostenerse por sí sola. En resumen, toda teoría Ti+1 que no se explique por sí misma
debe poder reducirse a una teoría más amplia.
teoría fundamental Ti que la explica y la sustenta, de modo que Ti " Ti+1 , y esta regresión explicativa
sólo puede terminar con una teoría autoexplicativa T .0

Este hecho se olvida con mucha frecuencia en la biología evolutiva, donde (por ejemplo) se
utilizan detalles de la estructura y la dinámica molecular para explicar los fenómenos orgánicos.
Aunque estos detalles proceden de las teorías más fundamentales de la química y la física
cuánticas, nunca constituirán una explicación satisfactoria de la vida hasta que no incorporen no
sólo una explicación de la física y la química, sino de la realidad en general. Esto es cierto
porque la realidad física (observable) no es un modelo completo para la física y, por tanto, no es
autocontenida con respecto a la explicación -en este sentido, cualquier interpretación
exclusivamente materialista de la teoría física es prima facie absurda- y porque la física es una
teoría no autoexplicativa independientemente del modelo. Para explicar los fenómenos
orgánicos mediante la selección natural, se necesita una explicación de la selección natural,
incluida la "selección natural" de las leyes de la física y del universo en su conjunto.
59
La reducción teórica implica una desvinculación regresiva de las restricciones informativas
progresivas para lograr explicaciones cada vez más básicas. Las firmas teóricas cerradas se
rasgan

60
y reducido a conceptos más básicos que pueden reformarse en firmas más básicas y
expresivas. Sin embargo, la parte informacional de la regresión termina allí donde una mayor
reducción comprometería la inteligibilidad; no puede haber una mayor regresión reductora a
través de estratos teóricos cada vez más fundamentales una vez que los requisitos de
regresión, reducción, teorización y estratificación se han perdido por sí mismos. Más allá de
este punto, la infocognición da paso al potencial informativo y cognitivo, o telesis.

El proceso de reducción de las distinciones a los medios sintácticos homogéneos que las
sustentan se denomina regresión sindifónica. Este proceso implica la unisección, por la que las
reglas de estructura y dinámica que rigen respectivamente un conjunto de objetos distintos se
reducen a una "unión sintáctica" en un entramado infocognitivo de medios sintácticos. La
unisección es una forma general de reducción que implica que todas las propiedades realizadas
dentro de un medio son propiedades del propio medio.

Cuando las propiedades emergentes son meras propiedades latentes del medio teleosintáctico
de emergencia, los misterios de los fenómenos emergentes se reducen a sólo dos: ¿cómo se
anticipan las propiedades emergentes en la estructura sintáctica de su medio de emergencia, y
por qué no se expresan salvo en condiciones específicas que implican (por ejemplo) el grado de
complejidad sistémica?

El principio del monismo infocognitivo

Cuando el lenguaje consiste en información y la información tiene estructura lingüística, el


Principio de Reducibilidad Lingüística implica que la información es tan fundamental como el
lenguaje. En la medida en que no podemos entender la realidad si no es en términos teóricos
(lingüísticos, informacionales), esto nos permite presentar la realidad como un "lenguaje que se
autoprocesa", o un conjunto teórico-universal que se autodefine, se autoexplica y se automodela,
sin temor a que alguna reducción teórica alternativa demuestre que estamos equivocados. Sin
embargo, la reducción lingüística de la realidad es superficialmente macroscópica. Del mismo
modo que un lenguaje perfectamente autocontenido debe ser autoprocesado (a falta de algo
externo que lo procese), también debe serlo la información de la que se compone. Esto conduce
al concepto de información autoprocesada y, en última instancia, a una teoría microscópica
(cuántica) de la información.

Es fácil demostrar que la información se autoprocesa. La estructura es atributiva; las partes de


cualquier estructura poseen atributos que las sitúan o definen en relación con otras partes. Para
ser significativa y, por tanto, informativa, la información debe tener estructura; por tanto, la
información debe poseer atributos. Las relaciones atributivas, intrínsecas o no, deben ajustarse
a las reglas lógicas que rigen la atribución, es decir, a una sintaxis lógica atributiva que
incorpore los cálculos proposicional y de predicados. Así pues, la información sólo puede existir
en conjunción con una sintaxis lógica atributiva. Dado que incorpora necesariamente una
sintaxis atributiva, tiene suficiente capacidad nativa de autoprocesamiento para mantener su
estructura intrínseca, que es precisamente lo que debe hacer para calificarse de
"informacional".

Puesto que la cognición y la transducción genérica de información son idénticas hasta el


isomorfismo -después de todo, la cognición es sólo la forma específica de procesamiento de
información que ocurre en una mente-, el procesamiento de información puede describirse como
"cognición generalizada", y la coincidencia de información y procesador puede denominarse
infocognición. Así pues, la realidad consiste en una única "sustancia", la infocognición, con dos
aspectos que corresponden a transducir y ser transducido. Describir la realidad como
infocognición equivale, pues, a un monismo (infocognitivo) de doble aspecto. Cuando la
infocognición equivale a la autopercepción generalizada distribuida y al autoconocimiento de la
realidad, el monismo infocognitivo implica una forma estratificada de "panpsiquismo" en la que
pueden distinguirse al menos tres niveles de autoconocimiento con respecto al alcance, el poder
y la coherencia: global, agentivo y subordinado.

61
En última instancia, el cambio conceptual de la información a la información autotransductora
requiere la ampliación de las teorías intensivas en información, incluidas las teorías de la
información, la computación y la cibernética. El problema radica en que, tal y como se
entiende en estos campos, la información es un concepto limitado basado en un modelo de
ingeniería en el que la existencia de

62
Los emisores, receptores, mensajes, canales y medios de transmisión ya están convenientemente
dados, con todas las leyes estructurales y dinámicas necesarias para que funcionen juntos.
Además, la estructura de bits especificada en este modelo se relaciona con la estructura real de
la información del mismo modo que la lógica proposicional se relaciona con la lógica en su
conjunto, incluidos el cálculo de predicados y la teoría de modelos. A saber, sólo se considera un
único nivel de estructura y funcionalidad, y la atribución se limita principalmente a un par de
predicados centrales comunes a ambas teorías, Verdadero / Falso = 1 / 0. Al igual que la lógica
sentencial sólo se ocupa de las relaciones funcionales de las variables sentenciales e ignora su
contenido, la teoría de la información sólo se ocupa de las probabilidades de los símbolos en las
cadenas de mensajes e ignora los detalles de la estructura y el procesamiento sintáctico y
semántico.

Diagrama 12: Tanto la lógica sentencial como la teoría de la información ignoran niveles enteros de estructura
para reducir el universo a 1s y 0s. En la lógica sentencial, las variables sentenciales sólo se distinguen por si son
verdaderas o falsas (1 ó 0), mientras que la teoría estándar de la información, junto con las teorías de la
computación y la cibernética, trata con "datos en bruto" expresados o "codificados" en los términos más básicos
posibles, a saber, los dígitos binarios 1 y 0. Mientras que el papel de estos "bits" es reducir la incertidumbre con
respecto a elementos específicos del contenido, se omiten convenientemente ciertos detalles esenciales de la
estructura y el procesamiento sintáctico y semántico, así como relaciones más específicas entre variables y
datos. Los signos rojos de interrogación indican que ni la lógica sentencial ni la teoría de la información se
explican plenamente a sí mismas, ni a su modelo, ni a su medio. [Diagrama parcialmente adaptado de Shannon,
C.E. (1948), "A Mathematical Theory of communication", Bell System Technical Journal, vol. 27, pp. 379-423 y
623-656].

Sin embargo, lo más interesante de la analogía es su extensión lógica. Al igual que la lógica
sentencial se extiende de forma natural para abarcar los niveles de atribución asociados a la
lógica de predicados y a la teoría de modelos, la teoría de la información puede extenderse de
forma natural para abarcar niveles de atribución más profundos... de hecho, los mismos dos
niveles anexos a la lógica sentencial.

El reequipamiento del concepto de información consta de tres etapas. En primer lugar, hay que
dotarlo de los medios de su propia transducción o procesamiento transformativo. Donde la
transducción de la información se reconoce (cognitivamente) como cognición generalizada, esto
equivale a sustituirla por un cuanto de reflexividad de doble aspecto, la infocognición, que
encarna la retroalimentación télica. En segundo lugar, su estructura de bits, una mezcla simplista
y bastante poco inspirada de lógica proposicional de 2 valores y teoría de la probabilidad, debe
ampliarse para dar cabida a la lógica en su conjunto, incluyendo (1) la lógica de predicados, (2)
63
la teoría de modelos y
(3) la teoría del lenguaje, que incluye ampliamente las teorías de los lenguajes matemáticos, los
metalenguajes y las gramáticas generativas. Al fin y al cabo, puesto que la información no hace
más que atribuir predicados organizados lingüísticamente a objetos en el contexto de modelos,
su significado implica las matemáticas de

64
predicados, lenguajes y modelos. Y tercero, debe generalizarse a un medio ancestral último, la
telesis, del que surgen la sintaxis cognitiva y su contenido informacional por retroalimentación
especificativa como parte de un complejo unificado... un acoplamiento recursivo de información
y metainformación, o sintaxis transductiva.

Este reequipamiento se lleva a cabo asociando información a operadores sintácticos reflexivos


(unidades de infocognición coherente) en una estructura lingüística reflexiva, el Lenguaje
Autoconfigurable de Autoprocesamiento (SCSPL), que incorpora su propio modelo y es, por
tanto, idéntico a su universo. El SCSPL evoluciona por conspansión (contracción material qua
expansión espacial), una alternancia gramatical estructurada entre una fase lingüística de
"salida" (realidad clásica) consistente en los estados observables o relaciones externas de los
operadores sintácticos, y una "fase de producción" que transforma un estado en otro.

Dicho esto, hay un sentido en el que el monismo infocognitivo concuerda bien con la tesis de
que los bits son descriptores universales de la realidad: dado que los valores de bit 1 y 0 son
análogos a los valores de verdad de la lógica de 2 valores, el hecho de que la realidad
perceptiva se describa mediante la lógica de 2 valores implica que puede describirse en
términos de bits. Sin embargo, aunque la realidad en general se define por su relevancia para la
realidad perceptiva en el sentido relativista, no consiste únicamente en la realidad perceptiva.

Reducibilidad télica y recursión télica

La recursividad télica es un proceso fundamental que tiende a maximizar un parámetro de


autoselección cósmica, la utilidad generalizada, sobre un conjunto de posibles relaciones
sintaxis-estado a la luz de la libertad autoconfigurativa del universo. Un proceso inherentemente
"cuántico" que refleja el lugar de la teoría cuántica en SCSPL, la recursividad télica es una forma
"preinformacional" de recursividad que implica una combinación de hología, retroalimentación
télica y selección recursiva que actúa sobre el potencial informacional de MU, una forma
sindifónica primigenia que es simétrica con respecto a la contención.

Cuando la realidad perceptiva consiste en infocognición (información autotransductora), explicar


la génesis y evolución de la realidad equivale a explicar la génesis y evolución de la
infocognición. Dado que la cognición generalizada (procesamiento de la información) es
temporal, mientras que la información localiza objetos o unidades de mensaje en espacios
atributivos, la información y la cognición son respectivamente de naturaleza espacial y temporal;
la infocognición es análoga al espaciotiempo, y el espaciotiempo es infocognitivo. De ello se
deduce que la realidad perceptiva no consiste meramente en infocognición sino en
espaciotiempo, y que buscar una explicación de la génesis y evolución de la realidad equivale a
buscar una explicación de la génesis y evolución del espaciotiempo qua infocognición... es
decir, a la cosmología en el contexto de la transducción de información.

La cosmología, el gran intento de la humanidad por explicar el origen y la naturaleza del


universo, ha consistido tradicionalmente en la búsqueda de un conjunto de "leyes últimas"
capaces de explicar no sólo cómo funciona el universo en la actualidad, sino también cómo
surgió. Por desgracia, incluso si se encontrara ese conjunto de leyes, la explicación asociada no
podría considerarse adecuada hasta que se explicaran las propias leyes, junto con los objetos y
atributos fundamentales sobre los que actúan. Esto da lugar a lo que parece una pregunta
imponderable: ¿cómo puede explicarse un conjunto de leyes, objetos y atributos si no es
invocando otro conjunto de leyes en forma de sintaxis explicativa que a su vez exigiría una
explicación, y así ad infinitum?

La respuesta se esconde en la pregunta. Las leyes no se sostienen por sí solas, sino que deben
definirse con respecto a los objetos y atributos sobre los que actúan y que aceptan como
parámetros.
Del mismo modo, los objetos y los atributos no se sostienen por sí mismos, sino que deben
definirse con respecto a las reglas de estructura, organización y transformación que los rigen. De
ello se deduce que el medio activo de la definición cruzada posee primacía lógica sobre leyes y
65
argumentos por igual, y es por tanto de naturaleza preinformacional y prenomológica... es decir,
télica. La telesis, que puede caracterizarse como "potencial infocognitivo", es el medio activo
primordial del que emergen las leyes y sus argumentos y parámetros por refinamiento mutuo o
recursividad télica.

66
En otras palabras, la telesis es una especie de "pre-espacio-tiempo" del que aún no han surgido
por separado el tiempo y el espacio, la cognición y la información, la sintaxis estado-transición y
el estado. Una vez unida en una forma infocognitiva primitiva que impulsa la emergencia
generando "tensión aliviable" entre sus componentes espaciales y temporales generalizados -es
decir, entre estado y sintaxis de estado-transición- la telesis continúa refinándose en nuevas
configuraciones infocognitivas, es decir, nuevos estados y nuevos arreglos de sintaxis de
estado-transición, para aliviar la tensión entre sintaxis y estado a través de la recursividad télica
(que nunca puede hacer completamente, debido a las contingencias que inevitablemente
resultan de la recursividad télica independiente por parte de subsistemas localizados). En cuanto
a la forma infocognitiva télico-recursiva primitiva MU en sí misma, no "emerge" en absoluto
excepto intrínsecamente; no tiene existencia "externa" excepto como una de las miríadas de
posibilidades que existen naturalmente en un reino ilimitado de restricción cero.

La recursividad télica se produce en dos etapas, primaria y secundaria (global y local). En la


etapa primaria, las leyes universales (distribuidas) se forman en yuxtaposición con la
distribución inicial de materia y energía, mientras que la etapa secundaria consiste en
transiciones de estado materiales y geométricas expresadas en términos de la etapa primaria.
Es decir, donde las leyes universales son sintácticas y la distribución inicial de masa-energía es
el estado inicial del espaciotiempo, las transiciones secundarias se derivan del estado inicial
mediante reglas sintácticas, incluidas las leyes de la física, más la recursividad télica. El estadio
primario está asociado al telor global, la realidad en su conjunto; el secundario, a los telores
internos (observadores-participantes "a nivel de agente"). Dado que la recursividad télica
primaria y secundaria pueden considerarse "simultáneas", puede decirse que los telores
locales "crean el universo" constantemente, canalizando y actualizando la utilidad generalizada
dentro de él.

Diagrama 13: El diagrama anterior ilustra la relación de la recursividad télica primaria y secundaria, con la
segunda "incrustada en" o expresada en términos de la primera. Los círculos y flechas grandes representan leyes
universales (sintaxis distribuida) en retroalimentación télica con el estado inicial del espaciotiempo (distribución
inicial de masa-energía), mientras que los círculos y flechas pequeños representan la retroalimentación télica
entre aspectos contingentes localizados de la sintaxis y el estado a través de la conspansión. La etapa primaria
maximiza la utilidad global generalizada sobre una base ad hoc a medida que los telores locales maximizan libre
e independientemente sus funciones de utilidad locales. Las contrapartidas en la etapa primaria de la expansión
interna y la recantización se denominan coinversión e incoversión. En virtud de la recursividad télica, el universo
SCSPL puede describirse como su propio "protoordenador cuántico" autosimulativo y autoactualizador.

Los modelos computacionales deterministas y continuistas de la realidad son recursivos en el


sentido estándar; evolucionan mediante operaciones recurrentes sobre el estado a partir de un
conjunto cerrado de "reglas" o "leyes". Como las leyes son invariantes y actúan de forma
determinista sobre un conjunto discreto o continuo estático, no hay lugar ni medios para la
optimización, ni espacio para el autodiseño. El CTMU, por otra parte, es conspansivo y télico-
recursivo; dado que se crean constantemente nuevos potenciales de estado mediante la
evacuación y absorción mutua de objetos coherentes (operadores sintácticos) a través de la
conspansión, la incertidumbre métrica y nomológica prevalece allí donde la recursividad estándar
se ve afectada por la escasez de objetos. Esto equivale a la libertad autogenerativa,
proporcionando teológicamente a la realidad un "bloc de notas autosimulativo" en el que
comparar la utilidad agregada de múltiples autoconfiguraciones con fines autooptimizadores.
67
La recursividad estándar es "markoviana" en el sentido de que cuando se ejecuta una función
recursiva, cada recursión sucesiva se aplica al resultado de la anterior. La recursividad télica es más
que markoviana, ya que

68
autoactualizativamente coordina los acontecimientos a la luz de relaciones de orden superior o
telones que son invariantes con respecto a la identidad global, pero que pueden mostrar cierto
grado de polimorfismo en órdenes inferiores. Una vez que una de estas relaciones es nucleada
por una oportunidad de recursividad télica, puede convertirse en un ingrediente de la sintaxis en
uno o más operadores o telores télico-recursivos (globales o a nivel de agente) y ser "llevada
hacia fuera" por expansión interna, es decir, sostenida dentro del operador a medida que se
involucra en la absorción mutua con otros operadores. Dos características del espaciotiempo
conspansivo, la homogeneidad atemporal de los IED (estratos de operadores) y la posibilidad de
superposición ampliada, permiten entonces al telón autorrealizarse coordinando
"inteligentemente", es decir, télico-recursivamente, los acontecimientos de manera que se
produzca su propia emergencia (sujeta a diversas restricciones más o menos sutiles que
implican la libertad disponible, el ruido y la interferencia competitiva de otros telones). En
cualquier sistema autocontenido y autodeterminativo, la recursividad télica forma parte
integrante de los niveles cósmico, teleobiológico y volitivo41 de la evolución.

El principio télico

Restringido al nivel teleológico ("¿Por qué?") de explicación, el MAP da lugar al Principio Télico:
el universo se configura a sí mismo de acuerdo con el requisito de autoseleccionarse a partir de
un fondo de potencial ontológico indiferenciado o telesis. Este requisito, que equivale a una
necesidad de autoactualización y autoexpresión, está implícito en la forma de la UM. El Principio
Télico es responsable de convertir el potencial en actualidad de tal manera que se maximice un
parámetro universal de autoselección, la utilidad generalizada.

La teleología, la idea de que el universo tiene un propósito que explica su existencia y guía su
evolución, hace tiempo que empezó a perder fuerza en el tribunal de la opinión científica.
Aunque al principio se supuso que una explicación más neutra y menos "teológica" de la
existencia del hombre y del universo vendría a llenar el vacío explicativo resultante, con el
tiempo se hizo evidente que tal sustituto no salía convenientemente de las ecuaciones; en
cualquier caso, sería necesaria cierta interpretación de nivel superior. Esto marcó el surgimiento
del llamado Principio Antrópico, que ahora viene en varios sabores incluyendo "débil", "fuerte",
"final", y el favorecido por Wheeler, "participativo".

La versión inicial (débil), el Principio Antrópico Débil o WAP, comienza con el punto trivial aunque
algo bayesiano de que nuestras observaciones cosmológicas del universo revelan una
capacidad para la vida "porque" un universo con vida es el único tipo de universo en el que hay
seres vivos capaces de hacer observaciones cosmológicas. Pero aunque esto parece implicar
que existe un dominio de muchos universos en el que tal universo puede distinguirse
pasivamente por la restricción circunstancial de que contiene observadores vivos, la AMP no
ofrece ninguna explicación lista para tal dominio. De hecho, para quienes no están convencidos
de sus virtudes, la AMP casi parece añadir una dosis innecesaria de tinta roja explicativa al libro
de contabilidad cosmológico.

El Principio Antrópico Fuerte (SAP) elimina gran parte de esta tinta roja al hacer una afirmación
más extrema, afirmando que la existencia de vida inteligente no es sólo un principio de selección
circunstancial, sino una condición sine qua non de la existencia cósmica. En efecto, esto limita el
conjunto de universos posibles a sólo aquellos que son capaces de producir vida. Sin embargo,
esto plantea problemas. ¿Cómo cuadrar la idea de que los observadores vivos son necesarios
para la existencia del universo con la idea de que la realidad objetiva es esencialmente
independiente de la observación y de quienes la observan? ¿Y cómo puede la vida inteligente,
que parece haber evolucionado miles de millones de años después del nacimiento del universo,
desempeñar algún tipo de papel causal en la cosmología? ¿Se está produciendo algún tipo de
"viaje en el tiempo"? Una cosa es la selección y otra la autogeneración retroactiva.

A menudo se ha señalado que los principios antrópicos emplean un razonamiento circular. Es


decir, parecen tomar como premisa lo que pretenden explicar, el hecho observable de que el
universo está "afinado" para albergar vida, afirmando que los seres vivos observan que el
69
universo es favorable a la vida "porque" la vida está presente en el universo para hacer esta
observación. En otras palabras, estamos aquí para observar el universo, y el universo está aquí
para dejarnos observarlo, porque estamos

70
¡aquí para observar el universo! Desgraciadamente, los principios antrópicos carecen de algo
que les haría falta para que esto funcionara: un modelo circular en el que su razonamiento en
forma de bucle pudiera ser coherente. Sencillamente, el tipo de circularidad causal que sugieren
no concuerda con la "flecha del tiempo" ni con otros aspectos de los modelos no circulares del
tiempo y el espacio.

Dado que los argumentos circulares se justifican por sí mismos y son resistentes a la falsación,
a menudo se asume que la tautología y el razonamiento circular son males teóricos absolutos.
Pero esto está lejos de ser así, ya que la lógica y las matemáticas se basan casi por completo
en la circularidad. La verdad y la tautología lógica, la recursividad y la iteración, el cierre
algebraico y topológico... todos la implican en algún grado. Los problemas surgen sólo cuando el
razonamiento circular se emplea sin la garantía de una generalidad matemática plena,
incorporando falsas pretensiones de universalidad sobre premisas (que pueden ser) no
universales.

Por desgracia, ni siquiera las tautologías válidas son aceptadas por la escuela predominante de
filosofía científica, el falsacionismo. Mientras que las tautologías no universales se prohíben con
razón debido a su resistencia a los procedimientos de falsación que revelarían sus limitaciones,
las tautologías universales se declaran "científicamente carentes de interés" por la misma razón.
Pero, de hecho, la ciencia no podría existir en modo alguno sin ellas. La posibilidad misma de
una observación científica depende totalmente de la existencia de formas tautológicas en las
que basar una sintaxis estable e invariable de la percepción. Esto plantea la posibilidad de que
el pensamiento falsacionista haya oscurecido accidentalmente el verdadero lugar del
razonamiento tautológico en la cosmología.

Si el universo es realmente lo suficientemente circular como para sustentar algún tipo de


argumento "antrópico", su circularidad debe estar definida e incorporada a su estructura de un
modo lógico y, por tanto, universal y necesario. El principio télico afirma simplemente que éste
es el caso; el imperativo más fundamental de la realidad es tal que le impone una estructura
supertautológica y conspansiva. De este modo, el universo se "selecciona a sí mismo" a partir
de la telesis no ligada o UBT, un reino de información cero y potencial ontológico ilimitado, por
medio de la recursividad télica, por la que la sintaxis infocognitiva y su contenido informacional
se entrecruzan a través de la retroalimentación télica (sintaxis-estado) en toda la gama de
posibles relaciones sintaxis-estado, hasta e incluyendo todo el espaciotiempo y la realidad en
general.

El principio télico difiere de los principios antrópicos en varios aspectos importantes. En primer
lugar, va acompañado de principios y modelos de apoyo que demuestran que el universo posee
el grado necesario de circularidad, en particular con respecto al tiempo. En particular, el
Principio de Superposición Ampliada, una propiedad del espaciotiempo conspansivo que
relaciona coherentemente acontecimientos muy separados, permite que el universo se
"retrodictamine" a sí mismo mediante una retroalimentación intertemporal significativa. Además,
para funcionar como principio de selección, genera un parámetro de selección global
generalizado análogo a la "autoutilidad", que luego trata de maximizar a la luz de la libertad
evolutiva del cosmos expresada a través de subsistemas télicos localizados que reflejan el
sistema global al tratar de maximizar la utilidad (local). En este sentido, el Principio Télico es una
extensión ontológica de los llamados "principios de economía" como los de Maupertuis y
Hamilton relativos a la menor acción, sustituyendo la menor acción por la desviación de la
utilidad generalizada.

En consonancia con su claro significado teleológico, el principio télico no carece de lo que


podrían describirse como ramificaciones teológicas. Por ejemplo, ciertas propiedades del
lenguaje reflexivo y autocontenido de la realidad -que se autodistribuye sintácticamente, se
autolectura y se autoconfigura y autoprocesa coherentemente- corresponden respectivamente a
las propiedades teológicas tradicionales omnipresencia, omnisciencia y omnipotencia. Aunque
el tipo de teología que esto implica no requiere ni apoya la intercesión de ningún ser
"sobrenatural" externo al propio universo real, sí apoya la existencia de un ser suprafísico (el
operador-diseñador global SCSPL) capaz de aportar más a los contextos físicos localizados de
71
lo que parece a simple vista. Y como la parte física (directamente observable) de la realidad es
lógicamente inadecuada para explicar su propia génesis, mantenimiento, evolución o
consistencia, ella sola es incapaz de contener adecuadamente al ser en cuestión.

72
Algunos antecedentes

Una revisión de la teoría computacional estándar del lenguaje puede resultar útil. La teoría de
la computación reconoce dos tipos generales de autómatas, los transductores y los
aceptores. Los transductores convierten la entrada en salida, mientras que los aceptores
clasifican o "reconocen" la entrada consistente en cadenas de símbolos sin producir
necesariamente una salida.

Un transductor finito es una 5-tupla (Σ,Q,Γ,δ,ω), donde Σ es un alfabeto de entrada finito no


vacío, Q es un conjunto de estados finito no vacío, Γ es un alfabeto de salida finito no vacío, δ:Q
× Σ 🡪 Q es la función de transición de estado, y ω:Q × Σ 🡪 Γ es la función de salida. A esto
podemos añadir un estado inicial q0 . Los transductores finitos se basan en última instancia en
leyes mecánicas para funcionar, transformando la entrada informativa
a la salida informativa transformando sus propios estados.

Un aceptor finito es una 5-tupla (Q,Σ,δ,q0 ,A), donde Q es un conjunto finito no vacío de estados
internos, Σ es un alfabeto, q0 , es el estado inicial, y A ⊆ Q es el conjunto de estados
aceptantes. El rango del mapeo de transición δ determina el tipo de aceptor; es determinista si
δ:Q×Σ🡪Q, y no determinista si δ:Q×Σ🡪2Q (donde 2Q representa el conjunto potencia de estados
posibles). Un aceptor finito determinista (Q,Σ,δ,q0 ,A) acepta una cadena x ∈ Σ* si δ(q0 ,x)∈A.
Un lenguaje es el
conjunto de cadenas aceptadas por un autómata o clase de autómatas determinado.

Los lenguajes se generan mediante gramáticas. En la teoría computacional del lenguaje, una
gramática generativa (o de estructura de frase) G es una 4-tupla (N,T,P,σ) formada por (1) un
conjunto finito N de no terminales; (2) un conjunto finito no vacío T de terminales, con N∩T=∅ y
N∪T = A (el alfabeto total de la gramática); (3) un conjunto finito de producciones P ⊂
((N∪T)*\T*) × (N∪T)* formado por argumentos no terminales y sus posibles transformaciones
terminales; y (4) un elemento σ de N llamado símbolo de inicio. La implementación de una
gramática de este tipo es un proceso deductivo que va de lo general a lo específico, empezando
por el símbolo más general σ (que significa "oración"),
Producciones cada vez más específicas conducen a una configuración terminal. La producción
(x,y), a menudo escrita x🡪y, significa la sustitución de x por y, o lo que es lo mismo, la
sustitución de y por x. Donde A* denota el conjunto de todas las cadenas o "palabras" en A, y
A*\T* denota el complemento de T* en A*, una palabra w∈(A*\T*) genera otra palabra w' si w=w
Xw12 , w'=w1 X'w2 , y X🡪X' es una producción.

La teoría de las gramáticas generativas las clasifica en función del aceptor menos potente que
pueda reconocer los lenguajes que generan. Las gramáticas de tipo 0 generan lenguajes no
restringidos que requieren un ordenador universal (máquina de Turing) con memoria ilimitada;
las gramáticas de tipo 1 generan lenguajes sensibles al contexto que requieren un autómata de
límites lineales con memoria proporcional a la longitud de la palabra; las gramáticas de tipo 2
generan lenguajes libres de contexto que requieren un autómata pushdown con una pila de
memoria en la que hay un número fijo de elementos disponibles en cualquier punto; y las
gramáticas de tipo 3 generan lenguajes regulares que requieren un autómata determinista finito
sin memoria.

Existe un paralelismo evidente entre los estados y transiciones de estado de los autómatas y las
cadenas y producciones de una gramática. Un autómata procesa cadenas de entrada a través
de sus estados internos, expresándolas en términos de su propio "lenguaje interno". De hecho,
un autómata físico que procesa una cadena de entrada puede verse como una estratificación
lingüística dinámica que incorpora el lenguaje de entrada, la programación mutable del autómata
(incluidos el ensamblador y el código máquina), su arquitectura cableada, el lenguaje
nomológico consistente en las leyes de la física según las cuales funciona el hardware, y
cualquier nivel "metafísico" de lenguaje necesario para definir y mantener las propias leyes de la
física. Dado que cada lenguaje de esta secuencia se expresa en términos del siguiente, los
lenguajes forman un "anidamiento descriptivo" en el que la sintaxis de cada uno se distribuye
sobre todos los que le preceden.

73
La sintaxis de una lengua está formada por su gramática y la estructura de sus expresiones. Es
decir, una sintaxis es una compilación de las reglas espaciales (estructurales) y temporales
(gramaticales, transformacionales) del lenguaje asociado; sus reglas son invariantes, generales
y distributivas con respecto a

74
el conjunto de expresiones que componen la lengua. Este concepto tiene tanto sentido para los
autómatas como para los lenguajes que procesan, y se aplica a todos los niveles de la
estratificación lingüística que acabamos de describir. Por ejemplo, cuando el concepto de
covarianza general expresa el carácter general y distributivo de las leyes de la física, estas leyes
pueden considerarse como una "sintaxis" en sí mismas, al igual que las leyes matemáticas más
generales que se aplican a las distintas estructuras matemáticas a las que se refieren
implícitamente las leyes de la física.

La física y las matemáticas no suelen considerarse lenguajes, sino teorías. Aunque se expresan
necesariamente en términos de lenguaje, suelen considerarse "más específicas". Pero, al igual
que los autómatas, también responden a criterios lingüísticos. Por ejemplo, las teorías
matemáticas tienen sintaxis formada por axiomas y reglas de inferencia, y diversas expresiones
derivadas como definiciones, teoremas y corolarios. En términos más generales, una teoría es
simplemente una construcción informativa que desempeña un papel directo definitivo,
descriptivo o explicativo con respecto a algo que necesita ser definido, descrito o explicado.
Puesto que las teorías están formadas por cadenas de símbolos reconocibles que adoptan la
forma de enunciados y ecuaciones y obedecen a "sintaxis" consistentes en axiomas, principios,
corazonadas o reglas empíricas, y de hecho comparten sus sintaxis con los objetos de
teorización hasta el isomorfismo descriptivo, son lenguajes. De hecho, los propios requisitos de
la teorización, a saber, la percepción y la cognición, son lenguajes en el sentido de que
consisten en "expresiones" sensoriales o conceptuales y se ajustan a sintaxis lógicas y no
lógicas consistentes en reglas generales de estructura y funcionamiento, incluidas (aunque no
necesariamente limitadas a ellas) las estructuras físicas y la dinámica de nuestros cerebros y
sistemas nerviosos.

Repasemos rápidamente algunos detalles técnicos de los lenguajes teóricos. Una teoría
matemática consta de proposiciones que contienen predicados básicos y funciones que
representan
conceptos fundamentales. Por ejemplo, la teoría de conjuntos se basa en el concepto de pertenencia
(∈);
la geometría depende en gran medida de conceptos primitivos como el ángulo y la distancia; y la
geometría elemental
La aritmética incorpora los conceptos más o menos básicos de suma, multiplicación y orden (<).
Los símbolos que representan estos conceptos, a veces denominados constantes no lógicas,
forman las
firma Σ de la teoría. Esta firma incluye símbolos para relaciones, funciones e individuos,
cada una con una "aridad" o valencia. Más allá de su firma, una teoría matemática contiene variables
(símbolos preasignados que denotan objetos de un dominio previamente especificado) para
individuos representados por símbolos como (x,y,z,...), símbolos lógicos (constantes lógicas) como
(~, ∧,∨,→,↔,=,∃,∀), y símbolos técnicos auxiliares.42

Un lenguaje elemental LΣ (lenguaje del cálculo de predicados) puede definirse como un conjunto
de expresiones o formas proposicionales que incorporan estos símbolos lógicos y no lógicos y
sus reglas sintácticas. Los términos de LΣ se definen como sigue: (1) las variables y las
constantes de los individuos son términos; (2) si F es un símbolo de función n-ario y t1 ,...,tn son
términos, entonces Ft1 ,...,tn es un término; (3) una secuencia de símbolos es un término si se
ajusta a 1 y 2. Las expresiones de LΣ se caracterizan así: (1) Donde R es un símbolo de relación
n-ario y t1 ,...,tn son términos, Rt1 ,...,tn es una expresión atómica (es decir, un caso de
atribución). (2) Si A y B son expresiones, entonces también lo son ~A, (A∧B),
(A∨B), (A→B), y (A↔B). (3) Si A(x) es una expresión que contiene la variable x, pero no ∃x ni ∀x,
entonces también lo son ∃xA(x) y ∀xA(x). (4) Una secuencia de símbolos es una expresión sólo si
se forma de acuerdo con 1-3. Por naturaleza, los lenguajes de la lógica de predicados son
descriptivos.
Las expresiones describen relaciones que se mantienen dentro de diversas estructuras
matemáticas.43

Ahora debería quedar claro que, para definir un lenguaje teórico, basta con crear una sintaxis
para él, ampliando la sintaxis de la lógica para dar cabida a las relaciones espaciales y

75
temporales que se dan necesariamente entre sus constantes no lógicas en todas (o al menos en
la mayoría) de las circunstancias lógicas dentro del ámbito previsto de la teoría. Al igual que la
propia sintaxis de la lógica, que es una teoría de inclusión descriptiva o "verdad" basada en la
necesidad cognitiva y perceptiva de distinguir lo que es de lo que no es, la sintaxis de un
lenguaje teórico también se basa en ingredientes e imperativos de la realidad cognitiva y
perceptiva. Ya hemos señalado la equivalencia entre autómatas y lenguajes; los estados y
transiciones de estado de los autómatas son paralelos a las cadenas y producciones de una
gramática. Para encontrar el lenguaje teórico que describa cualquier clase

76
de los transductores, basta con adjuntar a la sintaxis de la lógica los descriptores no lógicos de sus
estructuras y procesos transductores.

Los principales transductores del lenguaje general de la ciencia son los científicos, y su sintaxis
transductiva consiste en la sintaxis de la observación y la teorización científicas generalizadas,
es decir, la percepción y la cognición. Por lo tanto, podemos dividir o estratificar esta sintaxis
según la naturaleza de los elementos lógicos y no lógicos incorporados en las reglas sintácticas.
Por ejemplo, podríamos desarrollar cuatro clases correspondientes al trío fundamental espacio,
tiempo y objeto, una clase que contenga las reglas de la lógica y las matemáticas, una clase que
consista en los qualia perceptivos en términos de los cuales definimos y extraemos la
experiencia, el significado y la utilidad de la realidad perceptiva y cognitiva, y una clase que dé
cuenta de sentimientos y emociones más nebulosos integrantes de la determinación de la
utilidad de las relaciones qualia.44 Por ahora, podríamos llamar a estas clases STOS, LMS, QPS
y ETS, que significan, respectivamente, sintaxis espacio-temporal-objeto, sintaxis lógico-
matemática, sintaxis cualio-perceptiva y sintaxis emo-télica, junto con una interrelación de alto
nivel de estos componentes con la estructura a la que todos o algunos de ellos contribuyen en
última instancia. Juntos, estos ingredientes conforman la Sintaxis Cognitivo-Perceptual Humana
o SCH.45

Como todo usuario de idiomas sabe, el procesamiento de la lengua es mucho más que
reconocimiento y transducción. También existe la comunicación. Los conceptos de lenguaje y
comunicación son inseparables; los lenguajes son estructuras abstractas a través de las
cuales se efectúa la comunicación, y la comunicación implica el intercambio de entrada y
salida por parte de los usuarios del lenguaje. Siempre que tengamos una sintaxis, un conjunto
de expresiones representativas que se ajusten a ella y un conjunto de procesadores del
lenguaje, tendremos un lenguaje y la posibilidad de una comunicación significativa entre sus
procesadores.
Cuando la comunicación transmite información y la información representa relaciones, la
comunicación va más allá de los estados de los comunicadores; puede transmitir cualquier
información que represente cualquier tipo de relación. En consecuencia, los comunicadores no
sólo aceptan y transducen el lenguaje, sino que lo utilizan para representarse mutuamente sus
visiones del mundo.

El paradigma de la comunicación es perfectamente general y se aplica a todas las escalas. Se


aplica no sólo al nivel de las expresiones intercambiadas por los comunicadores, sino incluso al
nivel de la información básica de estado intercambiada por los elementos de procesamiento
interactivo de un autómata. Es decir, el propio procesamiento del lenguaje puede considerarse
una forma de comunicación; para actualizar un lenguaje a través de alguna forma de
procesamiento, debe cruzarse con un sistema de procesamiento que funcione a través de la
comunicación operativa entre sus partes. Una máquina universal, por ejemplo, es un "sistema
de autocomunicación" que transmite información entre sus componentes abstractos (de hecho,
la comunicación es la encarnación misma de las tres operaciones básicas de un ordenador
universal, a saber, leer, escribir y reubicar). Así pues, las reglas estructurales y dinámicas de los
procesadores de lenguaje se corresponden directamente con las sintaxis de los lenguajes;
ambos tipos de sistemas evolucionan mediante la intersección comunicativa de la sintaxis y el
estado (o contenido). De ello se deduce que los lenguajes y los autómatas pueden tratarse a la
par, y que puesto que los autómatas pueden tratarse como sistemas de autocomunicación,
también pueden hacerlo los lenguajes.

En las descripciones técnicas de los autómatas y los lenguajes descritas anteriormente, está
implícito un determinado modelo del mundo. Los autómatas aceptan entradas del mundo
exterior, las transforman a través de sus estados internos y (a veces) devuelven el resultado al
mundo exterior cuando han terminado. El lenguaje y la información están dentro o fuera de los
autómatas, y sólo están dentro una parte del tiempo. El resto del tiempo, la información está
presumiblemente en algún otro lugar del entorno o en camino de un lugar a otro. Pero cuando la
comunicación se produce a todas las escalas, la distinción entre interior y exterior no está tan
clara. Los lenguajes que se comunican entre usuarios y procesadores del lenguaje, y los
lenguajes que encarnan los propios usuarios y procesadores, ocupan un medio global con una
77
sintaxis comunicativa unificada en gran medida indiferente a la distinción.

Las leyes que rigen un sistema pueden estar depositadas en el espacio que contiene sus objetos
o en los propios objetos. La física clásica lo sitúa todo en el espacio, aplicando conceptos
espaciales como vectores y tensores a campos externos a los objetos. Sin embargo, es posible
aplicar una lógica

78
transformación que invierte esta imagen, volviéndola "de fuera a dentro". Esto da lugar a una
"subjetivización distribuida" en la que todo ocurre en el interior de los objetos; los objetos se
definen simplemente para interiorizar de forma coherente sus interacciones, lo que en la práctica
coloca a cada objeto "dentro" de cada uno de los demás de forma generalizada y, por tanto,
sitúa el contenido del espacio en el mismo plano que el que antes ocupaba el propio espacio que
lo contenía. Los vectores y tensores se convierten entonces en descriptores de las propiedades
sintácticas internas y los estados de los objetos. En efecto, el universo se convierte en una
"autosimulación" que se ejecuta dentro de su propio contenido.

Esta visión, complementaria de la geométrica convencional, se denomina álgebra transductiva.


La relación "dual" entre la geometría y el álgebra transductiva se denomina dualidad
conspansiva. En conjunción con otros principios, como la hología y la reducibilidad infocognitivo-
télica SCSPL, la dualidad conspansiva puede aportar nuevos conocimientos sobre la naturaleza
de la realidad y el mundo físico. Basta con tomar la imagen convencional, darle la vuelta, juntar
las dos imágenes y extraer las implicaciones. La relación de esta nueva imagen con la anterior
es más extensional que competitiva, ya que integra el modelo geométrico en un modelo
conspansivo más amplio y completo que lo une a su modelo dual. En cualquier caso, todos los
modelos equivalentes se encuentran en pie de igualdad, y las únicas hipótesis científicas sobre
las que podrían arrojarse dudas como resultado de esta extensión son las que se basan en el
supuesto falaz de que el modelo geométrico es "toda la historia".

Introducción al SCSPL

Según el Principio de Realidad, el universo es autocontenido, y según el monismo infocognitivo,


retrocede a un reino de restricción nula (telesis no ligada o TLE) a partir del cual debe refinarse
a sí mismo. Según el principio télico, que establece que el universo debe proporcionarse a sí
mismo los medios para hacerlo, debe hacer y realizar su propia "elección de existir"; en razón de
su prioridad absoluta, este acto de elección es idéntico a aquello que se elige, es decir, el
universo mismo, y por tanto reflexivo. Es decir, "la existencia es en todas partes la elección de
existir". En consecuencia, el universo debe adoptar una forma reflexiva en la que pueda
"seleccionarse a sí mismo" para la existencia autodefinida, siendo la función de selección
idéntica a lo que se selecciona. Esto significa que debe adoptar una determinada forma general
o "inicial", la forma MU, que contiene todos los requisitos para generar los contenidos de la
realidad. Debido a la hología, por la que el universo autocontenido no tiene nada más que a sí
mismo en lo que consistir, esta forma se autodistribuye.

En un principio, se podría objetar que no hay razón para creer que el universo no "existe" sin
más y que, por tanto, la autoselección es innecesaria. Sin embargo, ésta no es una postura
válida. En primer lugar, implica una apelación más o menos sutil a algo externo al universo, a
saber, un medio informativo previo/externo o "sintaxis" de la existencia; si tal sintaxis fuera
suficientemente relevante para esta realidad, es decir, suficientemente real, para apoyar su
existencia, entonces estaría analíticamente incluida en la realidad (tal como se define hasta la
relevancia perceptiva). En segundo lugar, la autoselección activa es realmente necesaria, ya
que la existencia no es meramente un estado, sino un proceso; el universo debe distinguir
internamente lo que es de lo que no es, y la pasividad queda descartada porque implicaría de
nuevo la participación de un principio activo complementario de origen externo.

Según el Principio de Reducibilidad Lingüística, la realidad es un lenguaje. Dado que es


autocontenida con respecto al procesamiento así como a la configuración, es un Lenguaje Auto-
Configurable Auto-Procesador o SCSPL cuya estructura general espacio-temporal es
hológicamente replicada en todas partes dentro de ella como sintaxis auto-transductiva. Esto
reduce la fase generativa de la realidad, incluida la cosmogonía física, a la gramática generativa
del SCSPL. Esta gramática generativa de la realidad se llama gramática Γ, y la forma MU, siendo
la forma más general o previa de la realidad, es su base. Por el Principio del Monismo
Infocognitivo y la hología de MU, SCSPL consiste en MU-configurados
infocognición, y la gramática Γ describe la generación y transformación de este constituyente
universal.
79
SCSPL no es un lenguaje ordinario, y la gramática Γ no es una gramática generativa ordinaria.
Las razones se reducen a las limitaciones inherentes a la teoría computacional del lenguaje. En
un lenguaje
teoría de la computación, un lenguaje consiste en el conjunto de cadenas aceptadas por un
autómata o clase de autómatas dados; por ejemplo, un lenguaje L se denomina "regular" si
existe un autómata de estado finito que lo acepta. Sin embargo, este enfoque es inadecuado
para SCSPL. En primer lugar, se centra en la computación, un tipo general de procesamiento de
la información asociado a un autómata abstracto, la máquina de Turing u "ordenador universal",
que nunca podría haber generado la estructura informacional del universo real. Al ser una
construcción informacional y metainformacional (sintáctica), el ordenador universal no puede
explicar por sí mismo la génesis de la sintaxis ni de la información. En segundo lugar, a
diferencia de los lenguajes ordinarios, el lenguaje de la realidad no puede depender de una
mente o autómata externo o de un sustrato de hardware preexistente para su reconocimiento y
procesamiento. Dado que cualquier procesador lo suficientemente real como para reconocer y
procesar la realidad es necesariamente una parte de la realidad, la distinción lenguaje-
procesador carece de fuerza ontológica.

Así, mientras que los modelos discretos ordinarios de la realidad dependen en gran medida de la
distinción lenguaje-procesador, SCSPL no incurre en tal deuda. Por ejemplo, los modelos de
autómatas celulares suelen distinguir entre una matriz espacial, los objetos informativos que
existen en ella y el conjunto distribuido de reglas temporales de transición de estados que
regulan la matriz y su contenido. En cambio, SCSPL considera el lenguaje y el procesador como
aspectos de una unidad infocognitiva subyacente. Por dualidad conspansiva (ectomorfismo-
endomorfismo), los objetos SCSPL contienen el espacio y el tiempo en un sentido tan real como
aquel en el que el espaciotiempo contiene los objetos, lo que da lugar a una identificación parcial
de espacio, tiempo y materia. SCSPL es más que un lenguaje de programación reflexivo dotado
de capacidad de autoejecución computacional; es una entidad protocomputacional capaz de
recursividad télica y, por tanto, de generar su propia estructura y dinámica informacional y
sintáctica.

Mientras que los modelos computacionales ordinarios son de carácter informacional y sintáctico,
la naturaleza protocomputacional del SCSPL requiere una generalización de la información y la
sintaxis. Con respecto al origen o naturaleza última de la realidad perceptiva, la explicación es
un proceso reductivo/inductivo que desata regresivamente las restricciones para dejar al
descubierto las de mayor prioridad y generalidad. Este proceso conduce finalmente al descriptor
inteligible más básico que puede formularse, más allá del cual sólo se encuentra lo ininteligible.
Esto marca la transición de la información y la sintaxis a una generalización reductora
convergente, la telesis.46

Esto apunta a una propiedad universal del lenguaje: es dinámico. Aunque a menudo se asume
convenientemente que las lenguas son ideales platónicos atemporales que flotan a la espera de
ser procesadas por aceptadores externos, sólo pueden ser tratadas en términos de información
estática por usuarios o procesadores que les proporcionen una sintaxis transductiva externa, y
sólo entonces descuidando ciertas necesidades subyacentes. Por ejemplo, para realizar
físicamente la estructura informativa de un lenguaje en un medio impreso o electrónico, debe
expresarse en términos de partículas físicas que reconozcan dinámicamente la ubicación de las
demás en la medida necesaria para mantener las relaciones espaciales que componen su
estructura informativa. Se trata de un requisito general, que se extiende de lo físico y concreto a
lo matemático y abstracto.

Así pues, los lenguajes son, en última instancia, autoprocesadores; o bien deben contener sus
procesadores en sus expresiones, o bien deben expresarse en términos de un lenguaje más básico
que cumpla este requisito.
En consecuencia, las expresiones del SCSPL son configuraciones informativas dinámicas de
procesadores de información, lo que implica que el SCSPL consta en todas partes de
información y sintaxis aceptivo-transductiva en un estado de intersección lógica. Juntas, la
información y la sintaxis comprenden la infocognición, información autotransductora en forma de
operadores sintácticos SCSPL que se "comunican" por absorción cruzada adquiriendo
80
mutuamente sus estados informativos como contenido cognitivo-sintáctico. Es a la base común
de estos dos componentes a lo que puede reducirse la información en el contexto SCSPL.
Donde el término telesis denota este componente común de información y sintaxis, la gramática
SCSPL refina la infocognición vinculando o restringiendo la telesis como infocognición.

En la medida en que cualquier gramática funciona mediante la aplicación recursiva de reglas


sintácticas, la gramática SCSPL es recursiva ("auto-llamada"). Sin embargo, la gramática SCSPL no
es meramente determinista o

81
no determinísticamente recursiva, sino télico-recursiva. Mientras que una gramática ordinaria
procesa recursivamente la información o vincula el potencial informativo a una sintaxis invariante
que se distribuye sobre
sus productos, la gramática Γ une la telesis, el potencial infocognitivo que abarca las posibles
relaciones
de sintaxis y estado, mediante la referencia cruzada de la sintaxis y su contenido informativo a través
de la recursividad télica.
La recursividad télica es el proceso responsable de configurar las relaciones sintaxis-
contenido en las que se basa la recursividad informativa estándar; su existencia es un
requisito ontológico de la
realidad. El refinamiento télico-recursivo cruzado de sintaxis y contenido está implícito en la "semilla"
de Γ-.
gramática, la forma MU, que encarna el potencial de complementariedad perfecta de sintaxis y
estado, ley y materia.

Dado que este potencial sólo puede realizarse específicamente a través de la vinculación
infocognitiva de la telesis, y que la vinculación télica localizada es efectuada libre e
independientemente por operadores télicos localizados y mutuamente decoherentes, las
desviaciones de la complementariedad perfecta son ubicuas. La evolución SCSPL, que puede
verse como un intento de ayudar a que esta complementariedad emerja de su estado potencial
en MU, incorpora una invariante global (sintáctica) que trabaja para minimizar la desviación total
de la complementariedad perfecta de la sintaxis y el estado a medida que los operadores
sintácticos vinculan libre e independientemente la telesis. Esta invariante primaria SCSPL, el
Principio Telic, toma la forma de una función de selección con un parámetro cuantitativo, la
utilidad generalizada, relacionada con la desviación. El Principio Telic puede considerarse como
el componente primario de la sintaxis SCSPL... la "elección de existir" auto-selectiva distribuida
espacio-temporalmente que coincide con MU.

El SCSPL incorpora los conceptos de estratificación sintáctica y distribución sintáctica. Por


ejemplo, dado que las leyes de las matemáticas se aplican en todas partes con respecto a las
leyes de la física, las primeras se distribuyen sobre las segundas en sentido sintáctico. Así,
cuando las leyes de las matemáticas y de la física se denotan por S1=LMS y S2
respectivamente, S1 se distribuye sobre S2, es decir, forma un recubrimiento sintáctico de S2.
Esencialmente, esto significa que las leyes de las matemáticas son en todas partes un
componente sintáctico necesario del lenguaje de la física. A S2 se asocia un "sublenguaje"
SCSPL denominado LO (con un subíndice de letra O). LO constituye el mundo de la percepción,
el universo objetivo clásico de los datos sensoriales tradicionalmente estudiados por la ciencia.
LO está contenida en la fase télico-recursiva, pre-informacional de la SCSPL, LS , que abarca el
refinamiento cruzado de LO sintaxis y LO contenido del aspecto pre-infocognitivo de la SCSPL.
La parte de la gramática SCSPL confinada a LO incorpora ciertas restricciones a las que LS no
está sujeta; por ejemplo, la parte gramatical de LO (S2) es fija, distribuida y supuestamente
continua, mientras que la de LS también puede ser mutable, local y discreta... en una palabra,
télica.

La gramática Γ es la gramática generativa de SCSPL = (LS ⊃LO ). La gramática Γ se


diferencia de una gramática ordinaria en que sus procesadores, productos y producciones
coinciden y se forman mutuamente por
recursividad télica. La sintaxis y el estado, vagamente análogos a la forma y el contenido (o
producciones y productos), se refinan mutuamente desde la telesis a través de la recursividad
télica por procesadores infocognitivos. Las reglas de producción incluyen el principio télico,
elementos distribuidos de sintaxis formados en la fase primaria de la recursividad télica, y
telones más o menos polimórficos formados por telores a nivel de agente. Los modos de
producción correspondientes son la recursividad télica global, la recursividad informativa por
sintaxis distribuida y la recursividad télica local.

Las "palabras" producidas por la gramática Γ no son cadenas de símbolos, sino relaciones
espaciales LO entre procesadores paralelos que pueden leer y escribir en los estados de los
demás. En efecto, los estados de
82
sus procesadores son aproximadamente análogos a los símbolos y cadenas de un lenguaje
ordinario. Así pues, los procesadores de la gramática Γ funcionan no sólo como transductores, sino
también como marcadores simbólicos de posición para observables y valores, mientras que sus
estados externos corresponden a productos y sus estados
transiciones realizan las producciones de la gramática. En otras palabras, los estados y las
transiciones de estado de los procesadores de la gramática Γ comprenden una
representación de la gramática Γ, lo que convierte a SCSPL en un lenguaje dinámico de
automodelado o "autosimulación interactiva".

En la siguiente descripción, los productos se limitan a los productos finales físicos asociados a
LO . Esto no debe interpretarse en modo alguno en el sentido de que los únicos productos
SCSPL sean productos físicos;

83
de hecho, todo en SCSPL es en cierta medida un "producto" télico-recursivo de todo lo demás.
Sin embargo, cuando el explanandum primario es la realidad física (científicamente observable),
LO es una opción adecuada.

Γ = (O,R,P,µ) contiene
(1) Un conjunto O de objetos activos reflexivos que incluye al propio Γ, los procesadores
(productores-reductores)47 de Γ. Todos los procesadores son capaces y responden a la
recursividad informativa (determinista). O incluye un conjunto distinguido Σ = {Γ,A,Q} de
operadores sintácticos, procesadores coherentes capaces de o que responden a la recursividad
télica. En general, las partes de la sintaxis SCSPL activas dentro de un operador dado dependen
de su tipo específico. Σ incluye el procesador global Γ, el conjunto Q = {qi } de partículas estables
reducibles e irreducibles que responden a la recursividad télica en un grado proporcional a sus
libertad y coherencia, y el conjunto A de agentes télicos, operadores télico-recursivos activos o
telores
capaz de expresar teleología a nivel local. Los elementos de A no tienen por qué ocupar LO ,
sino que pueden existir en LS . Donde υ denota el parámetro de autoselección generalizado de
Γ, los elementos de A son requeridos por Γ como "sensores-controladores" internos υ-
responsivos.

(2) Un conjunto R=(RO ,RS ) de productos que contiene un subconjunto RO = (σO , τO , πO ) de


estados de productos LO que incluyen todas las relaciones de LO , y un subconjunto RS de
telones o "pre-productos" generados en LS por recursión télica asociada a operadores
sintácticos globales o a nivel de agente. Los elementos de σO son relaciones espaciales, los de
τO son relaciones temporales, y los de πO son relaciones espaciotemporales que contienen
tanto relaciones σO como τO . σO consiste en relaciones de estados respecto a las cuales los
transductores correspondientes no tienen entrada mutua; τO consiste en secuencias de estados
consecutivos de objetos individuales; y πO consiste en procesos, o combinaciones de ambos.
En general, estos estados no están totalmente determinados por las reglas LO de
transformación de estados, sino que requieren un aumento télico para
actualización.

(3) Un conjunto P = (N,T) formado por las producciones de Γ. N está formado por los
descriptores distribuidos de πO , incluidos los descriptores markovianos y conservadores
distribuidos espaciotemporalmente denominados "leyes de la física", mientras que T está
formado por entidades activas LS análogas a las de N pero asociadas con
telones específicos (pre-productos) de RS y sujetos a variación local coordinada en el contexto
de relaciones telónicas de orden superior. Los elementos de N se determinan en la etapa
primaria de la recursividad télica, mientras que los de T se determinan en la etapa secundaria
de la recursividad télica.

(4) Una configuración de partida, la forma MU µ, que es idéntica al acontecimiento de


recursión télica que la crea (el inicio de SCSPL y de la gramática Γ es una recursión télica, no
una recursión algorítmico-informativa). Es esta identidad de acontecimiento y resultado la que
determina la espacialidad innata
y temporales del espaciotiempo, para el que µ es la "semilla". La forma MU puede
considerarse una "perturbación intrínseca" o una "asimetría intrínseca" en la UBT. La forma
MU es
distribuidos en SCSPL.

Un procesador de una gramática G es cualquier sistema dinámico natural o artificial que opera,
cambia de estado o procesa información de acuerdo con las reglas de G. A diferencia de los
sistemas generativos ordinarios, los procesadores de una gramática G son sistemas dinámicos
naturales o artificiales.
la gramática Γ no requiere procesadores externos; sus procesadores y producciones son
idénticos. Así, la gramática Γ es ejecutada por sus propias producciones en niveles de
distribución sintáctica que van del nivel global al nivel de objeto. De hecho, O, R y P -
procesadores, productos (estados)
y los eventos de producción- coinciden todos y muestran así una forma de trialidad. Esta
triple coincidencia es característica de la gramática Γ y recoge muchos de sus rasgos
esenciales.

84
La coincidencia O-R-P ya se da hasta cierto punto en el modelo estándar de lenguaje-
gramática-procesador de la teoría de la computación, pero sólo inadvertidamente. Si bien el
procesamiento lingüístico es dinámicamente paralelo a los cambios en los estados internos y
externos de los procesadores, éstos siguen considerándose separados de la lengua y la
gramática que se procesan. Además, no se tiene en cuenta el medio básico de procesamiento,
el modelo no es autosuficiente y

85
La recursividad es meramente informativa y computacional; no se permite la infocognición ni
la recursividad télica. SCSPL no comparte ninguna de estas limitaciones.

La gramática Γ genera SCSPL en función de la utilidad de sus procesadores sensibles,


incluyendo la autoutilidad de Γ y la utilidad de sus relaciones LO con los telones en A. Γ y A
generan telones a nivel global y local respectivamente; así, deben ser capaces de reconocer y
maximizar la
parámetro de selección υ (en el caso de los telores humanos, por ejemplo, esto requiere los
componentes QPS y ETS del HCS). Como tales, son responsables de la recursividad télica y
pueden considerarse como los "generadores" de la gramática Γ, mientras que el conjunto Q de
objetos físicos elementales son adquiridos libre y competitivamente por los telones y, por tanto,
ocupan una posición ontológicamente secundaria.

La gramática es conspansiva. Los procesadores no globales alternan entre la generación y la


actualización selectiva de las posibles producciones, y por tanto entre lo generativo y lo
selectivo
(interna expansiva y requantizativa) de la expansión. La fase selectiva de un operador coincide
con eventos interactivos de adquisición mutua, mientras que la fase generativa coincide con la
generación y actualización selectiva de posibles producciones a través de la multiplexación
hológica. Junto con la superposición espaciotemporal ampliada, la expansión proporciona los
medios para la recursividad local (télica e informativa).

La expansión es un proceso global que no puede diferenciarse localmente en cuanto a su


velocidad. Su tasa es, por tanto, un "factor de conversión tiempo-espacio" globalmente
invariante y, dado que todos los cambios de estado local deben expresarse en términos de él,
es máxima. Esta tasa máxima invariante de producción se denomina tasa de expansión c y
puede identificarse físicamente con la velocidad de la luz en el vacío.48 Las implicaciones de la
constancia de c y N a la luz del MAP ya se han señalado con respecto a la expansión
internamente acelerada del operador global.

Resulta instructivo experimentar con las diversas construcciones que pueden colocarse en LS y
LO . Por ejemplo, se puede pensar en LS como "L-sim", reflejando su aspecto autosimulativo,
télico-recursivo, y en LO como "L-out", el resultado de esta autosimulación. Se puede asociar LO
con los estados observables y la sintaxis distribuida-determinista de transición de estados, y LS
con el principio télico metasintáctico.
Incluso se puede pensar en LS y LO como respectivamente internas y (parcialmente) externas a
los operadores sintácticos SCSPL, y por lo tanto como vagamente correspondientes a los
aspectos subjetivos y objetivos de la realidad. Donde LS y LO se asocian con las fases de
expansión interna coherente y de recantización decoherente de la expansión, lo mismo ocurre
con la realidad subjetiva y objetiva, la simulación y la salida, la "onda y la partícula". En otras
palabras, la distinción subjetivo-objetivo, junto con la complementariedad, pueden verse como
funciones de la dualidad conspansiva.

El hecho de que LO tenga una estructura foliada consistente en láminas espaciales, con
reglas temporales confinadas a los operadores incrustados en las láminas, sugiere que su
nivel de estructura interoperador (estado-sabio, ectosintáctico) se considere de carácter
esencialmente espacial. Así, si el espacio denota las relaciones externas entre los
operadores y el tiempo denota sus auto-relaciones internas, también se podría pensar que LS
y LO se corresponden aproximadamente con el tiempo y el espacio. (La correspondencia es
"aproximada" porque LS y LO se incluyen mutuamente, lo que refleja el acoplamiento lógico de
espacio y tiempo; LO contiene topológicamente (LO ,LS ) operadores estructurados, mientras
que los operadores contienen descriptivamente LO .) Cuando el espacio y el tiempo
corresponden respectivamente a la información y a una combinación de cognición
generalizada y recursividad télica, se puede concluir que la evolución conspansiva del
espaciotiempo es una alternancia de fases teleo-cognitivas e informativas entrecruzadas por
una recursividad télica que implica relaciones télicas extendidas y trans-markovianas.

Aunque contiene el aspecto observable del SCSPL, LO puede contener, en principio, parámetros
ocultos (inobservables) implicados en relaciones nomológicas y, por tanto, relevantes para el
estado físico. Es decir, además de las variables dinámicas estándar de la física, LO puede
86
contener variables dinámicas adicionales que no pueden observarse directamente, sino sólo
inferirse teóricamente a partir de observaciones más o menos generales. Por ejemplo, los
teóricos de las cuerdas, los teóricos M y otros suelen conjeturar que el universo puede estar
flotando en algún tipo de incrustación externa

87
espacio, su relación con el cual aporta valor explicativo respecto al estado o condición interna
del propio universo. La dualidad conspansiva SCSPL sugiere que la supuesta "externalidad" de
dicho espacio no es una propiedad significativa; si dicho espacio existe y es lo suficientemente
relevante para el universo en el que vivimos como para tener valor explicativo para nosotros,
entonces es por definición un ingrediente de la sintaxis SCSPL y, por tanto, puede considerarse
que reside dentro de los operadores sintácticos SCSPL. De hecho, esto es una consecuencia
directa del Principio de Realidad.

Aunque sería posible extenderse mucho, este documento pretende presentar un esbozo
general de la teoría más que un desarrollo exhaustivo. Junto con los principios y
características enumerados anteriormente, el marco dado debería bastar para caracterizar el
SCSPL de forma introductoria y distinguirlo en sabor y contenido de otras teorías.

SCSPL como circuito autoexcitado

Ahora estamos en condiciones de trazar algunos paralelismos entre la visión de Wheeler de la


teoría de la realidad y la CTMU.

El Circuito Autoexcitado, el bucle lógico informacional a través del cual la física engendra la
participación del observador, que engendra la información, que engendra la física, es una
caracterización ajustada de SCSPL... tan ajustada que sería difícil, si no imposible, sustituir
SCSPL por cualquier otra cosa y no violar ni quedarse corto con la descripción de Wheeler.
SCSPL es lógico en su construcción, tiene una dinámica de bucle, y crea información y sintaxis,
incluyendo las leyes de la física, a través de la recursividad télica generada por operadores
sintácticos a nivel de agente cuyos actos de observador-participación son esenciales para la
autoconfiguración del Universo Participativo. Estos actos están vinculados por la recursividad
télica a las interacciones cognitivo-perceptuales generalizadas de los operadores sintácticos de
nivel cuántico, los acontecimientos mínimos que componen el tejido del espaciotiempo.

A través de la retroalimentación télica, el estado y la sintaxis se entrecruzan a partir de la telesis


no ligada o UBT, un dominio de información cero de potencial ontológico, bajo la guía de una ley
de orden superior llamada Principio Télico... una proteica "ley sin ley" a través de la cual el
orden se extrae del desorden a medida que las leyes se configuran según la utilidad
generalizada de las relaciones estado-sintaxis para los operadores de nivel agente u
observadores-participantes. Las indicaciones binarias de sí o no prescritas por It from Bit son
exigidas por el monismo infocognitivo y el estatus fundamental de la lógica sentencial de dos
valores en la sintaxis SCSPL. El mundo no es una mera monstruosidad cibernética, una
"máquina gigante gobernada por leyes preestablecidas", sino un sistema metacibernético con
prioridad lógica sobre las máquinas y las leyes que obedecen.

¿Cómo es posible la existencia? se responde por el hecho de que el universo es un operador


SCSPL global que equivale a un acto vasto, autoselectivo y autoexpresivo de observación-
participación reflexiva, mientras que ¿cómo es posible el quantum? se responde por la
autorreplicación hológica del universo en cada uno de sus operadores sintácticos microscópicos
y telores a nivel de agente. Muchos observadores-participantes dan lugar a un mundo
coherente porque, a través de MU, el universo se relaciona con sus contenidos como una
sintaxis distribuida homogénea que apoya y expresa sindiféonicamente sus distinciones, incluso
cuando le ayudan a evolucionar a través de la participación-observador y la recursividad télica.
El solipsismo individual se convierte en solipsismo distribuido a través de la absorción mutua de
operadores sintácticos SCSPL, posible gracias a una combinación de sintaxis SCSPL distribuida
y teleología compartida.

El Principio de Realidad, junto con MAP, M=R y otros garantes lógicos de la autocontención
cósmica, muestra que la estabilidad sintáctica de la realidad descarta cualquier regresión
reptiliana infinita de tortuga sobre tortuga, mientras que el continuo familiar de la física clásica
corresponde a una interpolación sintáctica (LMS) del colector conspansivo generado por
operaciones gramaticales SCSPL discretas. Donde el espacio y el tiempo corresponden a la
88
información y a la cognición generalizada respectivamente, y donde la información y la cognición
están lógicamente entrelazadas en operadores sintácticos infocognitivos SCSPL que se cruzan
en estados y eventos de transición de estados, el espacio y el tiempo están entrelazados en un
entramado de eventos conspansivos conectados por la sintaxis y que evolucionan a través de la
absorción mutua.

89
acontecimientos entre operadores sintácticos, instancias simétricas de observación generalizada
influidas por la recursividad télica. Así pues, el tiempo no se "introduce" en la explicación de la
existencia, sino que es una función de la gramática conspansiva, télico-recursiva SCSPL.

El último "límite del límite" del universo es UBT, un reino de restricción cero y posibilidad infinita
donde no existe ni límite ni contenido. El universo supertautológicamente cerrado compra la
difeonesis interna sólo al precio de la síntesis global, comprando sus distinciones informativas
sólo al precio de la coherencia. Sin pregunta no hay respuesta refleja el hecho de que la
realidad no consiste en mera información, sino en infocognición, y que la información sobre el
estado está crucialmente vinculada a la sintaxis y depende de ella... la sintaxis de las
"preguntas" que se hace a sí mismo el universo autoconfigurativo. Debido a la libertad
autoconfigurativa heredada por la realidad de la UBT, el universo dinámicamente
autoconfigurativo muestra incertidumbre y complementariedad y, por tanto, no puede encerrarse
en respuestas localmente determinadas para todas las preguntas posibles a la vez, mientras que
la autoconectividad extendida del espaciotiempo conspansivo implica inevitablemente al entorno
en las preguntas y respuestas.

El Principio Supercopérnico refleja la distribución del acontecimiento de la creación sobre


cada punto del espaciotiempo según el Principio de Superposición Extendida, que describe el
modo en que los estados y acontecimientos consecuentes se superponen atemporalmente en
sus estados y acontecimientos antecedentes. La conciencia generalizada, la reflexividad
unitaria del universo, es una descripción justa de la capacidad de autoconfiguración y
autoprocesamiento del SCSPL, tal y como la captan los Principios Telic y M=R, mientras que el
espaciotiempo conspansivo vincula objetos espacial y temporalmente distantes en una red de
contacto y comunicación que supera incluso la conectividad neuronal de un cerebro humano. Y
el CTMU describe el universo como el tipo de sistema de información complejo,
teleológicamente autovariante y autosintetizado prescrito por más es diferente, télico-recursivo
que explica la multiplicidad y la difeonesis desde la unidad y la síntesis de la sintaxis distribuida
SCSPL, la contrapartida (única) CTMU de lo que a veces se ha llamado "el Orden Implicado".49

La analogía anterior es sólo parcial, y en ningún momento se da a entender que la presentación


actual carezca de lagunas. Pero, para ser justos, se pueden hacer varios comentarios cruciales
a favor de la CTMU incluso en esta primera fase de la exposición. En primer lugar, es
supertautológico; al estar construido para reflejar la tautología lógica hasta el nivel de la teoría
de modelos y más allá, es verdadero en gran medida de la misma manera que una teoría de las
matemáticas puras sería verdadera, pero con referencia a un universo ampliado que consiste
tanto en la realidad matemática como en la física. De hecho, la CTMU puede considerarse una
teoría de la estructura matemática de un nuevo objeto matemático, la SCSPL. En segundo lugar,
tiene un alcance explicativo considerablemente mayor que otras teorías, ya que proporciona un
marco capaz de acomodar la lógica de la cosmogonía autodeterminativa sin excluir
prejuiciosamente (por ejemplo) los aspectos subjetivos y no materiales de la realidad. En tercer
lugar, incorpora en gran medida los modelos actuales de la realidad, al menos hasta el
en la medida en que estos modelos no han sido ya empujados más allá de sus capacidades
explicativas. Y cuarto, tiene lo que parecen ser implicaciones empíricamente válidas ausentes de
otras teorías salvo como suposiciones u observaciones inesperadas, por ejemplo, la aceleración
de la expansión cósmica. Pero quizá lo más importante en este punto es que, en principio,
cualquier aparente laguna explicativa puede colmarse. Es decir, si algo puede explicarse dentro
del ámbito de la ciencia estándar, entonces puede explicarse aún mejor en un modelo inclusivo
fortificado con la dualidad conspansiva.

Las ramificaciones del CTMU son lo suficientemente amplias como para que su emisión a partir
de una única teoría exija casi una explicación propia. Las implicaciones científicas, matemáticas
y filosóficas de la CTMU son muchas y variadas, y abarcan desde la física básica y la
cosmología hasta la biología evolutiva, la teoría de la cognición, los fundamentos de las
matemáticas y las filosofías del lenguaje y la conciencia. Pero, para ser justos, no cabe esperar
menos de una verdadera "teoría de la realidad", sobre todo si adopta la forma de una
descripción de la relación entre la mente y el universo. Al fin y al cabo, la CTMU se llama así
porque es una interpretación simétrica cruzada de la realidad mental y física, que mapea
90
lógicamente el universo concreto en una teoría abstracta de la cognición generalizada y
viceversa según el Principio M=R. Si sus implicaciones fuesen menos profundas, estaría mal
categorizada y mal llamada.

91
La CTMU dice que la realidad es un lenguaje... una estructura autoexplicativa, autoteorizante y
automodelativa idéntica a su universo. Como tal, puede considerarse un límite o "contracción"
de la teoría de modelos en la que teoría y universo coinciden en el nivel sintáctico de la
estructura teórica.
Mientras que la mayoría de las teorías científicas se mapean en o sobre el universo a través de
un abismo dualista insalvable, la CTMU es una teoría mónica de la percepción que simplemente
elimina el abismo inyectando tautológicamente la lógica en su totalidad, incluyendo las
extensiones lógicas de la teoría de modelos y la lógica de las teorías formalizadas, en la realidad
como sintaxis autotransductiva distribuida. La CTMU es capaz de hacer esto porque es un
hecho matemático duro que cualquier cosa que no se ajuste a la sintaxis de la lógica es
inconsistente y, por lo tanto, no forma parte de ninguna realidad estable y coherente. Como la
realidad que habitamos es visiblemente estable y coherente, la corrección de este movimiento
está asegurada. Al eliminar el abismo teoría-universo en el nivel de la sintaxis cognitiva y
perceptiva, la CTMU cumple admirablemente el criterio de economía teórica... y además de
forma supertautológica.

¿Califica el CTMU como una realización de la visión de Wheeler, y es el único en esta


distinción? Aunque uno vacila naturalmente a la hora de poner palabras en boca de un icono,
una de las dos cosas, o ambas, parecen ser ciertas: o bien son relativamente pocos los teóricos
de la realidad inclinados a compartir la visión del mundo de largo alcance de Wheeler, o bien son
relativamente pocos los teóricos de la realidad capaces de comprender esta visión del mundo y
perseguir sus implicaciones. En consecuencia, a pesar de la eminencia de Wheeler como físico,
casi ha parecido una voz en el desierto, dejando a algunos con la impresión de que sus
especulaciones más profundas tienen más el anillo de la profecía distante que de la practicidad
teórica inmediata. Pero aunque las preguntas, los "noes" y las pistas con las que Wheeler
describe su visión puedan parecer en ocasiones más basadas en la intuición y la creatividad que
en el rigor lógico y matemático, son justo el tipo de destilación intuitiva de la intuición matemática
que cabría esperar de alguien con tanta experiencia en el razonamiento lógico y cuantitativo. En
conjunción con otros principios necesarios, pueden transformarse en propiedades lógico-
matemáticas de la realidad con suficiente poder restrictivo entre ellas para determinar una nueva
estructura matemática denominada SCSPL, el "lenguaje intrínseco" definitivo. Cuando todo está
dicho y hecho, hay excelentes razones para creer que esta estructura es única, y que cualquier
principio adicional que el profesor Wheeler pueda tener en mente puede ser acomodado por el
CTMU con tanta seguridad como por la propia lógica.

La CTMU y el diseño inteligente

La teoría del diseño, cuyos orígenes se remontan a los tradicionales "argumentos del diseño"
teológicos que sostenían que la naturaleza había sido diseñada de forma más o menos evidente
por una inteligencia preexistente, sostiene que la complejidad observada de las estructuras
biológicas implica la participación de causas inteligentes empíricamente detectables en la
naturaleza. El Diseño Inteligente, la evolución científica más reciente de la Teoría del Diseño, es
un programa de investigación científica basado en una búsqueda filosóficamente más neutral, y
por tanto científica, de casos de una forma clara, objetiva y estándar de complejidad biológica.
Según William Dembski, uno de los principales portavoces del movimiento, esto ha conducido a
"una teoría de los orígenes y el desarrollo biológicos" según la cual "son necesarias causas
inteligentes [y empíricamente detectables] para explicar las estructuras complejas y ricas en
información de la biología." En vista de la naturaleza informacional de la complejidad, Dembski
observa que "la información no es reducible a causas naturales... el origen de la información se
busca mejor en causas inteligentes".
El diseño inteligente se convierte así en una teoría para detectar y medir la información, explicar
su origen y rastrear su flujo."50

Una de las primeras cosas que hay que destacar de la definición anterior es que asocia las
definiciones implícitas de inteligencia, causalidad e información en mayor medida que la mayoría
de los diccionarios, apuntando en principio a una definición conjunta de todas ellas. Dado que
toda buena definición requiere un modelo, uno podría estar muy tentado a deducir sobre esta
92
base que el DI, tal y como se define aquí, tiene un modelo bien definido en el que todos sus
conceptos constituyentes están relacionados. Por eso puede sorprender a muchos que la
objeción más frecuente, o en todo caso la más generalizada, contra el DI en la comunidad
intelectual sea que "no tiene modelo". Según sus críticos, carece de una interpretación del
mundo real que especifique un medio fundamental capaz de sustentarla o un medio para
realizarla.

93
Además, sus críticos afirman que su hipótesis central no sólo no está demostrada, sino que no
es realista ni susceptible de confirmación empírica.

Para ser justos, hay que señalar que, en la medida en que la propia ciencia ha fracasado
estrepitosamente a la hora de ponerse de acuerdo sobre un modelo global de la realidad, esto
no es en realidad más que un ejercicio de hipocresía. La ciencia observa, relaciona y extrapola a
partir de observaciones con lo que a menudo resulta ser una gran eficacia, pero una y otra vez
se ha mostrado incapaz de justificar completamente sus reducciones o las correspondencias
entre sus teorías y el universo real en su conjunto. Aunque algunos críticos afirman que, a partir
de cierto punto, la explicación carece de sentido y es inútil, no hablan en nombre de la ciencia;
todo el propósito de la ciencia es la explicación, no afirmaciones sin fundamento racional en el
sentido de que una explicación de forma cerrada es "inasequible" o "innecesaria". Al buscar una
explicación coherente de la existencia -una explicación que incorpore una fase de diseño
ontológico que sea racional, coherente y, por tanto, inteligente-, el programa del DI es, de
hecho, perfectamente coherente con la ciencia.

Sin embargo, ser perfectamente coherente con la ciencia significa simplemente que algo está en
línea para un modelo, no que ya tenga uno. De este modo, los detractores del DI han podido
crear la ilusión, al menos para las audiencias simpatizantes, de que lo tienen en desventaja
crítica. Sostienen que mientras que la ciencia debe ser instrumental para la sociedad, producir
predicciones específicas y, por tanto, citar leyes estructurales y dinámicas específicas que
expliquen de forma no trivial sus contextos de aplicación, el DI no es más que un caballo de
Troya para la ideología religiosa, no hace predicciones no triviales y carece de estructura
teórica. Debido a la cantidad de simpatizantes que tales afirmaciones han encontrado en el
mundo académico, esta ilusión se ha convertido en un engaño de masas que se refuerza a sí
mismo en ciertos sectores cerrados de la comunidad intelectual. Obviamente, sería ventajoso
para el movimiento del DI, y para la sociedad en su conjunto, acabar con este contagio
proponiendo algo claramente reconocible como modelo.

El problema, por supuesto, es que mientras la ciencia en general carezca de un modelo


fundamental, también lo tendrán todas las corrientes particulares de la ciencia, incluido el Diseño
Inteligente. Debido a la estrecha relación entre fundamentalidad y generalidad, el DI o cualquier
otro campo de la investigación científica tendría que proporcionar en última instancia a la ciencia
en general un modelo fundamental para poder proporcionarse uno a sí misma. Esto podría haber
llevado a algunas personas, en particular a quienes dudan de la existencia de un modelo
fundamental estable de la realidad, a suponer que la controversia sobre el DI permanecería
estrictamente en el ámbito de la filosofía hasta el fin de los tiempos. Pero no es así, porque si
realmente no existiera un modelo fundamental -si no hubiera forma de trazar un mapa de la
cognición teórica sobre la realidad en su totalidad-, la percepción misma carecería de una base
estable. La percepción, después de todo, puede describirse como el modelado de la realidad
objetiva en la cognición, y el modelado de la cognición en la realidad objetiva. La evidente
estabilidad perceptiva de la realidad, de la que dependen absolutamente la existencia y la
eficacia de la ciencia y la metodología científica, es un testimonio inquebrantable de la existencia
de un modelo fundamental del universo real.

La naturaleza general de este modelo puede vislumbrarse simplemente considerando la


reflexividad tautológica del término "evidente por sí mismo". Todo lo que es evidente por sí
mismo se prueba (o evidencia) a sí mismo, y cualquier construcción que esté implicada en su
propia prueba es tautológica. De hecho, en la medida en que los observadores son reales, la
percepción equivale a que la realidad se percibe tautológicamente a sí misma. Las
ramificaciones lógicas de esta afirmación se desarrollan en la CTMU supertautológica, según la
cual el modelo en cuestión coincide lógica y geométricamente, sintáctica e informacionalmente,
con el proceso de generación del modelo, es decir, con la cognición y la percepción
generalizadas. La información coincide así con la transducción de información, y la realidad es
un proceso autointerpretativo tautológico que evoluciona a través de la gramática SCSPL.

La CTMU tiene un mensaje meta-darwiniano: el universo evoluciona por autorreplicación


hológica y autoselección. Además, como el universo es natural, su autoselección equivale a una
94
forma cósmica de selección natural. Pero, por la naturaleza de este proceso de selección,
también cabe describirlo como autodiseño inteligente (el universo es "inteligente" porque eso es
precisamente lo que debe ser para resolver el problema de la autoselección, el problema
maestro en función del cual todo el universo evoluciona).

95
necesariamente se formulan problemas menores). Esto no es sorprendente, ya que la propia
inteligencia es un fenómeno natural que nunca podría haber surgido en los seres humanos y los
animales si no fuera ya una propiedad latente del medio de aparición. Un objeto no desplaza a
su medio, sino que lo encarna y sirve así de expresión de sus propiedades sintácticas
subyacentes. Lo que es mucho más sorprendente, y mucho más decepcionante, es el conflicto
ideológico al que esto ha conducido. Parece que a un grupo le gusta el término "inteligente" pero
le es indiferente u hostil el término "natural", mientras que al otro le gusta "natural" pero aborrece
"inteligente". De alguna extraña manera, toda la controversia parece girar en torno a la
terminología.

Por supuesto, se puede argumentar de forma creíble que el argumento en realidad va mucho
más allá de la semántica... que existen diferencias sustanciales entre las dos posturas. Por
ejemplo, algunos defensores de la versión darwinista radical de la selección natural insisten en
el azar y no en el diseño como explicación de cómo se generan nuevas mutaciones antes de la
acción restrictiva de la propia selección natural. Pero esto es insostenible, ya que en cualquier
contexto científico tradicional, "azar" es sinónimo de "indeterminación" o "acausalidad", y al fin y
al cabo, acausalidad significa justo lo que siempre ha significado: magia. Es decir, algo que
existe sin causa externa o intrínseca ha sido seleccionado y traído a la existencia por nada en
absoluto de una naturaleza causal, y es por lo tanto el tipo de proposición de algo de la nada
favorecida, por lo general a través de la suspensión voluntaria de la incredulidad, por los
frecuentadores de espectáculos de magia.

Inexplicablemente, algunos de los que adoptan esta postura acusan sin embargo de
pensamiento mágico a cualquiera que proponga introducir un elemento de volición teleológica
para llenar el vacío causal. Estos podrían objetar que por "aleatoriedad" no entienden
acausalidad, sino simplemente ignorancia causal. Sin embargo, si al adoptar esta postura
pretenden invocar tardíamente la causalidad, entonces están iniciando una regresión causal.
Esta regresión puede tomar una de estas tres formas: puede ser infinita y abierta, puede terminar
en un Primer Movedor que en sí mismo no tiene explicación causal, o puede formar una especie
de ciclo cerrado que se duplica como Primer Movedor y aquello que es movido. Pero un Primer
Movedor ha sido aparentemente descartado por suposición, y una regresión abierta infinita
puede ser descartada porque su falta de una sintaxis recursiva estable haría imposible formar
límites informativos estables en términos de los cuales percibir y concebir la realidad.

¿Y la solución cíclica? Si uno utiliza leyes para explicar estados, entonces está obligado a
explicar las propias leyes. La metodología científica estándar exige que las leyes naturales se
definan a partir de observaciones de estados. Si entonces se afirma que todos los estados son
causados por definición por leyes naturales, entonces esto constituye una circularidad que
necesariamente deriva en una definición mutua de ley y estado. Si entonces se objeta que esta
circularidad sólo caracteriza el proceso de la ciencia, pero no el universo objetivo que la ciencia
estudia, y que las leyes tienen de hecho prioridad absoluta sobre los estados, entonces las
propias leyes requieren una explicación por algo distinto del estado. Pero esto descartaría de
hecho la única alternativa que queda, a saber, la configuración de ciclo cerrado, y llegaríamos
de nuevo a... la magia.

De ello se deduce que el proceso inherentemente subjetivo de la ciencia no puede separarse en


última instancia del universo objetivo; el universo debe autodefinirse mediante el refinamiento
cruzado de la sintaxis y el estado. Esto nos lleva de nuevo a la CTMU, que afirma que el
universo y todo lo que hay en él evolucionan en última instancia por automultiplexación y
autoselección. En el MCU, diseño y selección, caras generativa y restrictiva de una misma
moneda, son conceptos duales asociados a las etapas alternas de la expansión. La
autoselección de la realidad está inextricablemente unida al autodiseño, y es este proceso
bifásico el que da lugar a la naturaleza. La evolución biológica no es más que un reflejo de la
evolución de la propia realidad, un proceso de recursividad télica que refleja el del universo en su
conjunto. Así, cuando los cálculos de probabilidad evolutiva se extrapolan regresivamente al
instante distribuido de la creación, llegan inevitablemente a un fundamento lógico y, por tanto,
significativo.

96
La CTMU afirma que, sobre bases lógicas, la realidad tiene fases generativas y restrictivas, y
que la evolución tiene fases generativas y restrictivas que se expresan necesariamente en
términos de las de la realidad. Afirma que el mecanismo metacinético de la evolución es la
recursividad télica, un proceso atemporal que establece una dialéctica estratificada entre
sintaxis y estado, organismo y

97
entorno, con niveles mutuamente coherentes mutables e invariantes. Afirma que este proceso,
aunque sujeto a diversas formas de ruido, interferencia y competencia basadas en la libertad
interna de la realidad, tiende a maximizar la utilidad del universo y sus habitantes. Por tanto, la
evolución es mucho más que una mera dictadura ambiental en la que leyes inexplicables de la
naturaleza llevan la voz cantante mientras la biología baila servilmente la giga de la vida y la
muerte.

La CTMU afirma que, por su naturaleza autogenerativa y autoselectiva, que se desprende


directamente del requisito analítico de autocontención, la realidad es su propio "diseñador". Otros
rasgos de la gramática generativa de la realidad implican que la realidad posee ciertas
propiedades lógicas tradicionalmente consideradas como teológicas o espirituales, y que, en
esta medida, el aspecto autodiseñador de la realidad está abierto a una interpretación teológica o
espiritual. La CTMU, al ser una teoría lógica, no intenta imponer a nadie tal interpretación; no
todas las permutaciones semánticas tienen por qué afectar a la estructura teórica. Lo que sí
hace, sin embargo, es convertir en falsa a priori cualquier interpretación antiteológica, y garantiza
que cualquier interpretación que uno elija se acomoda a la existencia de un "diseñador
inteligente"... a saber, la realidad misma. A la luz del CTMU, esto es ahora una cuestión más de
lógica que de gusto.

En cualquier caso, debe quedar claro que la CTMU aporta nuevas formas de ver tanto la
evolución como la teleología. Del mismo modo que se distingue de otras teorías de la
evolución cósmica por su nivel de autocontención, sobre todo en lo que respecta a su
preferencia por la autodeterminación frente a la determinación o indeterminación externas, lo
mismo ocurre con su enfoque de la evolución biológica. A diferencia de otras teorías, la CTMU
sitúa la biología evolutiva directamente en el contexto de un modelo fundamental y
autocontenido de la realidad, dotándola así de una explicación y un fundamento propios en
lugar de pasar irresponsablemente la responsabilidad explicativa a alguna reducción futura; en
lugar de considerar suficiente modelar sus implicaciones evolutivas en el mundo biológico, la
CTMU establece una simetría teórico-modelo al proporcionar una mezcla sin fisuras de teoría y
universo en la que el propio mundo biológico puede ser "modelado" por incrustación física.
Esto por sí solo le da derecho a ocupar un lugar en el debate evolutivo.

Agradecimientos:
El autor desea dar las gracias a Gina Lynne LoSasso por la creación de los diagramas que
aparecen en este documento y por las numerosas y estimulantes discusiones y comentarios
sobre la presentación de este trabajo. También hay que dar las gracias a varias personas que
han apoyado y seguido mi trabajo y han aportado preguntas estimulantes que me han ayudado a
explicar la CTMU con el nivel de detalle actual. Entre otros, Robert North Seitz, John Chapman,
Angell O. de la Sierra, Mike Doyle, Phillip Hopp, Quinn Tyler Jackson, Evangelos Katsiolis, Paul
Kisak y Anthony Nolan.

2002 Christopher Michael Langan. Consulte la versión más reciente de este artículo en: www.ctmu.net

98
Notas

1 David Berlinski, "What Brings a World into Being?", Commentary, Vol. 111, nº 4, 2001, p. 17.
2Robert H. Wozniak, "Mente y cuerpo: René Descartes to William James",
http://serendip.brynmawr.edu/Mind/Table.html, 1996.
3 Michael J. Behe, La caja negra de Darwin, Nueva York: Touchstone Books, 1998.

4William A. Dembski, La inferencia del diseño: Eliminating Chance through Small Probabilities,
Cambridge University Press, 1998.

5De hecho, son idénticos hasta un isomorfismo más allá del cual la parte mental, al ser la más
completa de las dos, supera a la material.
6 Aunque el CTMU es por definición único hasta el isomorfismo con su propia sintaxis -este "auto
isomorfismo" es una de sus características estructurales definitivas-, nos abstendremos
debidamente de descartar sumariamente la posibilidad de que en el futuro otros puedan
presentar "modelos de retroalimentación temporal" autodeterminativos propios. No obstante, hay
que señalar que, dado que la MCU es intrínsecamente tautológica y se identifica
tautológicamente con su universo en el nivel más profundo de su existencia, y dado que éste es
el mismo universo real estudiado por la ciencia, cualquier otra teoría válida de la realidad se
equiparará necesariamente a la MCU hasta el isomorfismo; lo que añada vendrá por la vía de la
especificidad, no de la generalidad. Aunque otros ya han presentado teorías "cibernéticas" y
"teóricas de la información" de la cosmología, estas teorías se basan en las teorías estándar de
la información y la cibernética, por lo que heredan sus limitaciones explicativas con respecto a la
cosmología.
7Quienes esperan que el campo de la cosmología culmine en una gran reducción del universo
a pura información olvidan a veces que ello no haría sino transformar cierta pregunta, "¿qué
es el universo y de dónde viene?", en otra no menos enojosa, "¿qué es la información y de
dónde viene?".
8John A. Wheeler, "Beyond the Black Hole", en Some Strangeness in the Proportion: A
Centennial Symposium to Celebrate the Achievements of Albert Einstein, Woolf, H. (Ed.), pp.
341-375, Reading, Massachusetts: Addison-Welsley, 1980, pp. 341-375.

9John A. Wheeler, "Información, Física, Cuántica: The Search for Links", p. 8, en Complexity,
Entropy and the Physics of Information, SFI Studies in the Sciences of Complexity, vol. VIII,
Zurek, W.H. (Ed.), Addison-Wesley, 1990, pp. 3-28.

"From the Big Bang to the Big Crunch", entrevista a John A. Wheeler en Cosmic Search
10

Magazine, Vol. 1, nº 4, 1979. Véase: http://www.bigear.org/vol1no4/wheeler.htm


11 ibid.

12 Wheeler, "Información, Física, Cuántica", pp. 3-4.


13 ibídem, p. 3.
14 ibídem, p. 4.

15 ibídem, p. 8.
16 ibídem, p. 9.

99
17 ibídem, p. 9.
18 ibídem, p. 10.
19 ibídem, p. 10.
20 John A. Wheeler, Gravedad y espaciotiempo, Nueva York: Scientific American Library, 1990, cap.
6.
21 Wheeler, "Información, Física, Cuántica", p. 15.
22 ibídem, p. 16.

23 Ignoraremos por ahora el hecho de que si la mente es ilusoria, entonces también lo es toda
la filosofía, incluida la de Hume, y si la causalidad es ilusoria, entonces también lo es la forma
de causalidad representada por la implicación lógica, incluido el uso que hace Hume de la
implicación lógica para definir su filosofía.
24 Bertrand Russell, Historia de la filosofía occidental, Londres: Unwin Paperbacks, 1979.

25 Christopher M. Langan, "Of Trees, Quads, and God", Noesis-E, Vol. 1, No. 4, 2001.
26 Kurt Gödel, Sobre las proposiciones formalmente indecidibles de Principia Mathematica y
sistemas afines. Meltzer, B., trad., Nueva York: Basic Books, 1962.
27Para más información sobre el teorema de Lowenheim-Skolem y la tesis de Duhem-Quine,
véase Christopher M. Langan, "The Theory of Theories", Noesis-E, Vol. 2., nº 1, 2002.
28La interpretación de muchos mundos de la mecánica cuántica, al pretender eludir el problema
del colapso de la función de onda de la mecánica cuántica, pretende en efecto eludir también el
problema de la conciencia dividida. Sin embargo, dado que la propia MW se formula
necesariamente en términos de lógica de dos valores, el problema se reduce a cómo el
"hiperuniverso" asociado con la propia MW "colapsó" fuera del mar de todas las "meta-
realidades" potenciales. A este respecto, MW tiene poco que ofrecer en su propio nombre. Así
pues, MW carece de autocontención justificativa y, por tanto, no es base para una teoría
fundamental de la realidad. En cualquier caso, dado que la teoría que describimos en este
artículo está diseñada para abordar la realidad en su forma más básica y, por tanto, para
abordar todas las realidades concebibles como sus posibles instancias, sustituye a cualquier
explicación ofrecida únicamente por MW.
29Hace varios milenios, Aristóteles propuso la lógica (categórica) como las reglas formales del
razonamiento correcto. Ahora como entonces, el "razonamiento" es de naturaleza inferencial,
mental y subjetiva. Tras permanecer prácticamente inmutable hasta el siglo XIX, el campo de la
lógica comenzó a experimentar nuevos avances. Pero aunque este progreso ha sido
considerable, ha dejado esencialmente intacta la naturaleza inferencial, mental y subjetiva de la
lógica.
30Obsérvese que, aunque esto parece implicar que las 3 M son "axiomas" y, por tanto,
independientes, la premisa de la independencia axiomática es en sí misma un concepto
bastante endeble. En realidad, estos principios están estrechamente relacionados, en el sentido
de que, en cierta medida, pueden deducirse unos de otros en un contexto teórico de la realidad.

31En física, la expresión "principio de realidad" se ha asociado a veces con la idea de que la realidad
objetiva existe independientemente de la observación humana, al menos en la medida en que no
desaparece repentinamente cuando no se la observa directamente. Tal y como se utiliza en este
documento, la expresión "principio de realidad" debe interpretarse tal y como se describe en esta
sección, a menos que se indique lo contrario.
10
0
32Nota: la resolución tipotéorica de esta paradoja es incompleta; la resolución completa requiere
MU, una especie de "metasindifeonesis" que dote a la red infocognitiva del espaciotiempo de un
nivel de cierre superior.

10
1
33 Una regresión sindifónica conduce, en última instancia, a una sintaxis cerrada estable en la
que todos los términos se definen mutuamente; la definición mutua es lo que estabiliza y
confiere determinación interna (identificabilidad interna de los acontecimientos) al sistema a
través de la simetría sintáctica. Es decir, el cierre relacional ortogonal a la dimensión (temporal)
de la regresión equivale a la distribución de una identidad sistémica, y a menos que esta
identidad esté completamente definida, las identidades de los componentes del sistema no
pueden ser definidas o reconocidas por o con respecto a los demás. Así pues, la identidad
dinámica es una función de autoidentificación con dimensiones definitivas, descriptivas e
interpretativas.
34 Resulta tentador observar que "relatividad" significa aproximadamente lo mismo en la Teoría
General de la Relatividad que aquí. Es decir, utilizando un "espacio tangente" sintáctico-
distribuido, la estructura del espaciotiempo se define tensorialmente en términos de las masas y
posiciones relativas de sus propios contenidos materiales, lo que da lugar a una definición
intrínseca del espaciotiempo similar a la de MAP. Por desgracia, el formalismo básico de la RG,
la geometría diferencial, no es autónomo con respecto al tiempo; tal y como está formulado
actualmente, depende tácitamente de un medio de incrustación (conspansivo) que le
proporcione potencial temporal.
35 Lo que tal pregunta plantea realmente es "¿por qué existe la relación de habitación y
observación que se mantiene entre el observador/interrogador y el universo?". El Principio
Antrópico Débil se acerca a medias a una respuesta aplicando una función de selección
probabilística: "la relación ha sido lógicamente seleccionada por el hecho de que sólo ciertos
tipos de universo pueden albergar actos de observación y un observador como el interrogador".
Esto es correcto hasta donde llega, pero omite la fase generativa, preselectiva de la
explicación... la parte que da cuenta de la función de selección y del dominio al que se aplica.
En este sentido, la AMP se parece un poco a la selección natural: escarda bien el jardín, pero es
incapaz de hacer crecer una sola flor.
36Obsérvese que el principio M=R no afirma (por ejemplo) que los frutos de la imaginación
humana sean "reales", salvo como patrones de disparo neuronal sin relevancia necesaria para
nada fuera del cerebro, ni que podamos hacer que las cosas sean inmediatamente "reales" con
sólo pensar en ellas. El principio M=R se limita a decir que cuando la mente es el motor de la
cognición y la percepción, y estos procesos se consideran conjuntamente como un "lenguaje"
que obedece a reglas de sintaxis, esta sintaxis -las reglas de la cognición y la percepción- se
distribuye necesariamente sobre el perceptor y el percepto.
37Christopher M. Langan, "Introducción a la CTMU", Ubiquity, Vo.1, No.1, 1999. También
disponible en: http://www.megafoundation.org/CTMU.html
38 Arthur S. Eddington, The Expanding Universe, Cambridge University Press, 1933.

39 Christopher M. Langan, "Física y metafísica", Noesis-E, Vol. 1, nº 3, 2001.


40 Un proceso de Markoff es un proceso estocástico sin memoria. Es decir, es un proceso que
cumple dos criterios: (1) las transiciones de estado están limitadas o influidas por el estado
actual, pero no por la secuencia concreta de pasos que conducen al estado actual; (2) la
transición de estado contiene un elemento de azar. En general, se supone que los procesos
físicos cumplen estos criterios; las leyes de la física se definen de acuerdo con 1 y, dado que en
última instancia funcionan a nivel cuántico pero no determinan completamente las transiciones
cuánticas de estado, un elemento de azar está superficialmente presente. En este sentido, las
leyes distribuidas de la física pueden denominarse "markovianas". Sin embargo, el criterio 2
abre la posibilidad de que haya influencias ocultas activas.
41Christopher M. Langan, El arte de conocer: Expositions on Free Will and Selected Essays,
Eastport, NY: Mega Foundation Press, 2002.
10
2
Gellert, W., Kustner, H., Hellwich, M., y Kastner, H., The VNR Concise Encyclopedia of
42

Mathematics, Nueva York: Van Nostrand Reinhold Company, 1977, p.334.

10
3
43 No todas las expresiones son proposiciones; las proposiciones son expresiones sin variables
libres (no cuantificadas) . Permitir la cuantificación de predicados unarios (de un solo lugar) y
tratarlos como individuos resulta en una generalización de los lenguajes elementales a una
clase de lenguajes más expresivos, los lenguajes monádicos de segundo orden. Otras
generalizaciones son posibles en esta línea.
44 Para que la inclusión de la utilidad, los qualia o los sentimientos no parezca "anticientífica",
basta con observar que sería mucho más anticientífico ignorar cosas cuya existencia se conoce
subjetivamente basándose en la suposición ilusoria y racionalmente injustificable de que la
subjetividad y los predicados subjetivos no desempeñan ningún papel en la autodefinición de la
realidad. En la medida en que la subjetividad se refiere meramente a las identidades intrínsecas
coherentes de los elementos de las relaciones objetivas, esto sería lógicamente absurdo. Pero
en cualquier caso, nuestro objetivo en este punto es meramente clasificar los elementos
básicos en términos de los cuales vemos el mundo , hayan o no demostrado hasta ahora ser
accesibles a la metodología empírica estándar, y esto significa reconocer la realidad de los
predicados cualitativos y emocionales y adjuntar las constantes no lógicas correspondientes a
la sintaxis SCSPL. Si los predicados QPS y ETS resultan ser reducibles a predicados
STOS/LMS más fundamentales, entonces muy bien; permitirá una conveniente reducción de la
sintaxis. Pero esto no es algo que pueda decidirse de antemano.
45 La sintaxis cognitivo-perceptiva consiste en (1) conjuntos, posets o tosets de atributos
(telones), (2) reglas perceptivas de atribución externa para asignar relaciones externas a telones,
(3) reglas cognitivas de atribución interna para la transición cognitiva (interna, no perceptiva) de
estados, y (4) leyes de dependencia y conjugación según las cuales las reglas perceptivas o
cognitivas de atribución externa o interna pueden o no actuar en un orden determinado o en
simultaneidad.
46 Para ver cómo puede reducirse beneficiosamente la información cuando todo salvo la
información es desinformativo por definición, basta con reconocer que la información no es una
proposición independiente; nunca se encuentra aparte de la sintaxis. De hecho, sólo se
"encuentra" algo mediante la adquisición sintáctica. Lo que sólo es reconocible como contenido
sintáctico requiere contención sintáctica, y sólo adquiere sentido cuando lo adquiere un
operador sintáctico capaz de mantener su estructura relacional; sin transducción atributiva, una
información no tiene nada que cuantificar. Esto implica que la información puede generalizarse
en términos de "lo que tiene en común con la sintaxis", a saber, la relación sindifónica entre
información y sintaxis.
47A estos efectos, la reducción puede entenderse como producción inversa. Como tal, es
esencial para el reconocimiento gramatical.
48Dado que la propagación de la luz es un fenómeno que depende de la expansión, c no
puede verse afectado por la impedancia o la manipulación de los fotones.
49 El Orden Implicado es un concepto defendido por el físico David Bohm en con su
interpretación de la mecánica cuántica. Utilizando la analogía de un holograma, Bohm propuso
una especie de autosimilaridad por la que "todo está envuelto en todo". Según Bohm, este
"orden implicado" es complementario de un "orden explicado", resultado de desplegarlo
mediante un proceso denominado "holomovimiento". Esto merece mención por su parecido
superficial con el despliegue conspansivo del estado a partir de la sintaxis en SCSPL, que
muestra su propia versión de hiperconectividad lógica, y la similitud entre hología y holografía.
Sin embargo, dado que CTMU se cruza sólo parcialmente con la teoría de Bohm, la analogía no
debería extenderse en exceso.

50William A. Dembski, "Intelligent Design as a Theory of Information", Perspectives on Science


and Christian Faith, Vol. 49, nº 3, 1997, pp. 180-190.

10
4

También podría gustarte