Artículo remitido por Exceed73
Seguro que muchos de los lectores de este blog que han oído hablar del Diseño Inteligente están interesados en saber como se infiere diseño en la naturaleza, es decir, que criterio científico utilizan los teóricos del Diseño Inteligente para distinguir lo que es fruto del diseño de lo que no lo es.
Pues bien, este criterio no es otro que la complejidad especificada. A continuación explico de qué se trata.
El término tiene poco más de 35 años de vida. El investigador Leslie Orgel fue el primero en utilizarlo, en su libro de 1973 The Origins of Life, en donde escribió:
“Los organismos vivos se distinguen por su complejidad especificada. Cristales tales como el granito no pueden ser considerados como organismos vivos porque carecen de complejidad; las mezclas azarosas de polímeros tampoco pueden serlo porque carecen de especificación".
Más tarde, en 1999, Paul Davies en The Fith Miracle identificó la complejidad especificada con la clave para resolver el problema del origen de la vida:
"Los organismos vivos son misteriosos no por su complejidad per se sino por su hermética complejidad especificada. Para comprender plenamente el surgimiento de la vida a partir de lo inanimado, tenemos que conocer no sólo el modo en que fue concentrada la información necesaria, sino saber también de qué manera llegó a ser especificada la información biológicamente útil."
Sin embargo, fue William Dembski en 1998 quien ofreció una explicación analítica precisa de la complejidad especificada, en su libro The Design Inference.
Dembski define la complejidad especificada como la característica que se compone de una alta improbabilidad (complejidad) y una baja complejidad especificativa. Una baja complejidad especificativa significa que se puede describir el patrón utilizando una secuencia relativamente corta, dado que la complejidad especificativa está concebida como una cadena de longitud mínima (para más detalles, véase www.mdl-research.org) Ilustremos esto con un ejemplo: consideremos 2 secuencias de 10 tiradas de una moneda, con el siguiente resultado: a)++cc+ccc+c y b) cccccccccc. ¿cuál nos sentimos más inclinados a atribuir al azar? Aunque su probabilidad es la misma, el modelo que especifica la segunda secuencia es mucho más simple que el de la primera. Para la primera secuencia el modelo es: "dos cruces, dos caras, una cruz, tres caras, una cruz y una cara, en este orden." Sin embargo el de la segunda secuencia es simplemente:"diez caras seguidas" o sólo "diez caras" si ya hemos especificado que se trataba de 10 tiradas.
¿Por qué elegir la complejidad especificada como criterio para detectar diseño?
Porque en todos, absolutamente en todos los casos en se conoce la historia causal subyacente, la complejidad especificada no aparece sin diseño.
Ahora bien, ¿cómo se cuantifica la complejidad especificada?
En cuanto al componente de la complejidad probabilística (improbabilidad), a fin de ser conservador, Dembski ha situado el límite inferior en el límite de la probabilidad universal. ¿Cuál es ese límite? El límite de probabilidad universal que establece este matemático es de 1/10e150: Veamos de que se deduce.
Sabemos que el número de partículas elementales del universo físico conocido se mueve en torno a 10e80. Por su parte, las propiedades de la materia son tales que las transiciones desde un estado físico a otro no pueden darse a una velocidad mayor de 10e45 veces por segundo. Finalmente, Dembski atribuye al universo una edad de aproximadamente 10e25 segundos, que dicho sea de paso es superior a las estimaciones más aceptadas. Si suponemos ahora que cualquier especificación de un suceso dentro del universo conocido requiere al menos una partícula elemental que lo especifique y que tal especificación no puede ser generada con una velocidad mayor de 10e45 veces por segundo, entonces estas limitaciones cosmológicas implican que el número total de sucesos especificados a lo largo de la historia cósmica no puede exceder la cifra de 10e80*10e45*10e25=10e150. Así pues, cualquier caso especificado de probabilidad que sea menor que 1 sobre 10e150 seguirá siendo improbable incluso después de que todos los recursos concebibles del universo observable hayan sido factorizados en él.
Otros científicos y matemáticos han calculado el límite de probabilidad universal, siendo el de Dembski tremendamente conservador. Por ejemplo, el científico computacional Seth Lloyd calcula un límite de 1/10e120. Esta cifra es la que utiliza Dembski en algunos cálculos, como veremos.
En lo que respecta a la baja complejidad especificativa, Dembski la incluye en el siguiente cálculo:
CE=-log2[ R x φ(T) x P (T)]
Que es la definición matemática de la complejidad especificada, y donde R es el límite universal de probabilidad, en este caso de 10e120 que es el valor que le asigna Seth Lloyd, φ(T) es el número de patrones, dado un modelo T, que tienen una complejidad especificativa menor o igual que la del patrón que estamos examinando y P(T) es la probabilidad del patrón que esatmos examinando
A partir de esta fórmula, Dembski establece el siguiente criterio para detectar complejidad especificada:
(10e120) x φ(T) x P (T) < 1/2
Dembski aplicó esta fórmula para determinar si el flagelo de la bacteria E.Coli posee complejidad especificada y por lo tanto, ha sido diseñado. Esta estructura puede describirse mediante el patrón: “hélice motora giratoria bidireccional”
El cálculo resultó ser:
P (T)< 1/2 x 10e(-140)
Dado que φ(T)=10e20, pues los patrones que pueden ser descritos con cuatro palabras o menos, asumiendo un límite de términos de un diccionario en 10e5 son:
10e5 x 10e5 x10e5 x 10e5= 10e20.
Cómo el flagelo bacteriano tiene una probabilidad calculada de 10e(-1170) -Dembski explica en No Free Lunch como calcularla- se concluye que es diseñado.
El filtro explicativoHemos visto como un patrón que exhibe complejidad especificada se conforma a un patrón dado independiente, es decir todo el cúmulo de proteínas que componen el flagelo bacteriano se puede describir como “hélice motora giratoria bidireccional”. Esta es la base del procedimiento que ha ideado Dembski para detectar complejidad especificada y por tanto diseño: el filtro explicativo.
El filtro consiste en los siguientes tres nodos de decisión:
1.- Contingencia: si X no es contingente, esto es, si X no es incierta, entonces se debe a ley y queda aquí como plenamente explicada (suelto una piedra y cae). Si es contingente o incierta, pasa al siguiente nodo.
2.- Complejidad: si X no es sumamente compleja, es decir, si tiene una probabilidad de ocurrir mayor de 1/10e150, se detiene aquí y se atribuye al azar. Si la probabilidad es tan pequeña que es menor pasa al siguiente nodo.
3.- Especificación: si X se conforma a una pauta dada independiente, se atribuye al diseño. Si no, entonces una vez más puede explicarse por azar.
Por supuesto, este procedimiento ha sido y es objeto de críticas por parte de los adversarios del Diseño Inteligente, pero el caso es que hasta ahora, el filtro no ha dado ni un sólo falso positivo.
.