En Silicio

Explorando la realidad usando datos y gráficas

1650 personas se han suscrito

Otros reciben En Silicio por correo

Por qué es «buena» la diferencia entre teoría y práctica

September 25, 2008 por Kiko Llaneras · 6 Comentarios

Dando vueltas a por qué las predicciones económicas son tan poco fiables, me he acordado de una cita oportuna:

En teoría, no hay diferencia entre teoría y práctica. Pero en la práctica, sí que la hay1.

Aunque la frase tiene gracia, algo en ella me disgusta: se puede interpretar como un demérito del trabajo teórico, de la abstracción y de los modelos.

BioInfoSys.gifPero esa interpretación es errónea, claro.

A menudo, «tu teoría» es un modelo simplificado. Si eres cuidadoso al formularlo, tu modelo teórico será correcto… aunque sus predicciones solo coincidirán con la realidad —es decir, con la práctica— en algunos casos. Es más, puede que las predicciones sean siempre erróneas.

Pero la culpa no será de tu modelo, sino de tus hipótesis. Y es que las hipótesis —o asunciones— son la clave del modelado.

Si conoces tus hipótesis, cuando tu modelo falla tienes una lista de sospechosos. De esa forma las discrepancias teoría-práctica te servirán para aprender cosas sobre la realidad que intentas representar y podrás ir refinando tus modelos poco a poco2.

En realidad no cabe otra opción, porque en ausencia total de hipótesis te enfrentas a la vasta realidad… donde la complejidad es tanta que resulta inmanejable.

P.S. Como me explicó un exitoso científico, los que usamos modelos tenemos otra razón para atender a las hipótesis: «si eres consciente de las hipótesis que soportan tu modelo, nadie podrá atacarlo, solo podrán atacar tus hipótesis».

Notas:
  1. La autoria de la frase es controvertida. []
  2. Es un proceso iterativo, a la búsqueda de la explicación válida más sencilla: 1) Asumes muchas cosas; 2) preparas tu modelo; 3) lo enfrentas al fenómeno que pretendes explicar; 4) si la cosa no marcha, abandonas alguna hipótesis e incorporas complejidad y vuelves al punto 2. []


6 respuestas hasta ahora ↓

  • 1 Liz // Sep 25, 2008 a las 13:24

    Cuando citaba el ejemplo de la ONU y los escenarios sobre los que se aplicaban los modelos, me refería exactamente a este punto que tocas en esta entrada:

    hipótesis+modelo=futuro+error.

    Me gusta la cita y quizás nos esté diciendo que hay una limitación en nosotros mismos para que esa diferencia que hay en “la práctica” desaparezca.

    Un saludo.

  • 2 Kiko Llaneras // Sep 25, 2008 a las 13:34

    Liz, creo que en cierto modo es así, vamos, que existe esa limitación.

    Si pudiéramos «entender» la realidad perfectamente y en toda su complejidad, no necesitaríamos modelos.

  • 3 Andres // Sep 26, 2008 a las 20:19

    Yo creo que la limitación es importante y viene de que el cerebro evolucionó para la supervivencia de la especie humana (en otras condiciones) y no para hacer ciencia. Tenemos mucha suerte de que también sirva para eso pero da mucho trabajo y es muy difícil. Si tuviéramos el cerebro adecuado sería tan fácil como ver el rojo sobre fondo verde o reconocer una cara. Por eso después de años y años de entrenamiento sigue siendo difícil incluso para los genios.
    Andrés.

  • 4 Kiko Llaneras // Sep 26, 2008 a las 21:05

    Andrés, hacer ciencia es antinatural, sí :-)

    Por cierto, creo haber oído alguna vez el siguiente razonamiento: dado que nuestro cerebro es menos complejo que la realidad, nuestro cerebro no puede «entenderla/procesarla/representarla» completamente.

    Usando una analogía —trampa— si nuestro cerebro tiene 100×100 pixels y la realidad 100000×100000, no podemos replicarla en nuestra cabeza.

    Tiene cierto sentido ¿no?

    Aunque hay fisuras. Si los pixels se ordenan de tal forma que definen un círculo perfecto, podremos pensar en el mismo patrón. O escribir en nuestros 100×100 pixels: «la realidad es un círculo de 100000 pixels».

    En realidad, es posible generar complejidad a partir de algo sencillo.

  • 5 Andres // Sep 27, 2008 a las 21:08

    Antinatural y divertido, si.

    Depende de como definas complejidad. Desde la teoría de la computación lo importante es el tamaño del algoritmo, no el tamaño del output. Es sólo en ese sentido que puedes generar complejidad a partir de algo sencillo. Desde la teoría de la información lo importante es el tamaño del mensaje después de comprimirlo al máximo posible y otra vez puedes tener mensajes largos pero poco informativos (sólo hay que escuchar a algunos personajes para comprobarlo ;-) .

    El universo es aparentemente complejo pero quizás el problema es que no sabemos que algoritmo usa o que distribución estadística tiene el mensaje. Pero parece que nos vamos acercando porque las leyes fundamentales cada vez son mas sencillas y explican una porción mayor de la complejidad aparente (ejemplos paradigmáticos: Newton, la tabla periódica, el modelo estándar). También es verdad que necesitas un cerebro mas complejo para entender la explicación pero eso no hace mas complejo el mensaje sino el cerebro que lo interpreta (aparentemente).

    Y volviendo al principio del hilo, con un cerebro adecuado ni siquiera el cerebro tendría porqué ser complejo para entender el mensaje.

    Andrés.

  • 6 kiko Llaneras // Sep 29, 2008 a las 08:24

    Sí, a eso me refería: tamaño algoritmo vs output.

    Por otra lado, aunque conociéramos el algoritmo —las leyes fundamentales— no podríamos computar o predecir el resultado —la realidad— porque la complejidad aumenta muy rápidamente. Es decir, quizás podamos encontrar y entender la realidad, pero no simularla ¿no?

Deja tu comentario

Si quieres seguir leyendo