Este artículo es bastante técnico y teórico, pero lo considero importante puesto que está en el trasfondo de muchas de las afirmaciones que he hecho a lo largo de mis intervenciones. También trato algunos temas recurrentes, que ya he mencionado en otras ocasiones. Lo hago porque pienso que la insistencia en estos temas, y su ubicación en diferentes contextos, ayudan a su asimilación e interpretación. La complejidad de algunas cuestiones o matices, hace recomendable tratarlos repetidas veces, y desde distintos puntos de vista en la medida de lo posible.
Básicamente lo que voy a tratar es de distinguir entre Probabilidad y Estadística. La mayoría de la gente no las distingue, e incluso ignoran por completo la PROBABILIDAD pensando que sólo existe la Estadística. Este error es nefasto, ya que es mucho más importante la Probabilidad, puesto que como veremos más adelante, es la teoría más adecuada para hacer las previsiones de futuro.
En la Estadística hay multitud de conceptos y parámetros, algunos bastante complejos y sofisticados (incluso equivalentes). De todas formas hay dos parámetros fundamentales con los que se pueden tratar la mayoría de situaciones prácticas, sin necesidad de tanta parafernalia. Esos parámetros son la “Media Aritmética” y la “Desviación Típica”; cuyos equivalentes en la Teoría de la Probabilidad” son la “Esperanza Matemática” y la “Volatilidad”.
Por decirlo en una sola frase: “el 95% de la Estadística está metido en la Media y la Desviación”. Y un buen ejemplo de ello lo tenemos precisamente en el ámbito de la Bolsa, donde se utiliza la Media (aritmética o ponderada) para obtener precios razonables y orientativos de los activos cotizados, y la Desviación Típica para el cálculo de la volatilidad histórica de los mismos.
Es por ello que el estudio y comparativa entre estas dos teorías matemáticas, Estadistica y Probabilidad, lo voy a hacer a través de estos parámetros fundamentales.
Empezaremos el estudio con una situación ficticia, que en ocasiones me referiré a ella con el sobrenombre de “experimento del año 2010”:
Pensemos en un año concreto como el 2010, y en una empresa concreta como Telefónica (TEF).
Podemos calcular la media aritmética (promedio) y la desviación típica del precio de Telefónica durante ese año. A partir de estos datos podemos hacer una estimación de cuál podría ser el precio más probable y su variación (volatilidad) en el próximo año 2011. Concretamente podríamos suponer que el "precio más probable" del 2011 sería la "media aritmética" del 2010, y la "volatilidad más probable" del 2011 la "desviación típica" también obtenida en el 2010.
Esto no es ningún disparate hacerlo así, o de otra forma parecida, utilizando estos recursos estadísticos de la Media y la Desviación (de hecho se hace). Sin embargo puede mejorarse el resultado (la previsión) saliéndonos del ámbito de la estadística y entrando en el ámbito de la Probabilidad. La razón es muy sencilla: la estadística nos DESCRIBE UN ESCENARIO PASADO (lo hace con total precisión, sí,... pero se trata de un escenario YA pasado), en cambio la probabilidad nos PREVEE UN ESCENARIO FUTURO (lo hace con cierto margen de confianza o error, sí,... pero se trata de un escenario FUTURO).
Como ya he señalado en otras ocasiones, conviene recordar aquí que mi “teoría particular de Bolsa” (Tabla de Valoraciones + Sistema Integrado de GESTION DE CARTERA) hace uso de la Probabilidad, como no podría ser de otra manera, ya que es la forma correcta de obtener “proyecciones hacia el futuro” de algunas magnitudes tan importantes como el precio y su volatilidad.
Las “proyecciones a futuro” hechas estadísticamente son una alternativa, pero mucho más imprecisa y rudimentaria. Sorprendentemente esta alternativa estadística es la más utilizada, y además con diferencia. Sirvan como ejemplo procedimientos tan habituales como “las medias móviles” o “las bandas de Bollinguer”,... procedimientos que dicho sea de paso son de lo mas “florido” del Análisis Técnico,... el resto (figuras, canales, tendencias, suelos, soportes, resistencias, etc.) es todavía más penoso, rudimentario y ambiguo.
OBSERVACION IMPORTANTE:
La “ventaja” de la Estadística está en que no requiere ninguna condición (hipótesis) para su utilización, es decir que independientemente de las características de la variable que estemos estudiando (precio en este caso), la estadística siempre nos podrá hacer una descripción, totalmente precisa además, de la historia pasada de esa variable concreta. La Estadística se puede aplicar siempre, en cualquier circunstancia y en cualquier caso.
La probabilidad en cambio, requiere una condición indispensable (hipótesis fundamental) para poder ser aplicada. Esta condición es la de que la evolución de la variable en estudio (el precio) debe ser errática (ALEATORIA).
Dejando de lado la manipulación y corrupción (“mamoneo”), la evolución de los precios en Bolsa es efectivamente ALEATORIA, por eso un estudio riguroso y científico del tema requiere Teoría de la Probabilidad, y NO Estadística. Sirva de ejemplo la Teoría de Derivados (Opciones – Futuros – Warrants) de Black-Scholes, donde la hipótesis aleatoria es fundamental, y evidentemente nunca se habla de Tendencias, soportes, resistencias, figuras, etc. Cualquier entidad mínimamente determinista no tiene cabida en una teoría de Bolsa bien estructurada científicamente.
_____________________________________________________________________
El precio promedio (media aritmética) en Estadística, es lo que en Probabilidad equivale al precio probable (esperanza matemática). La desviación típica del precio en Estadística, es lo que en Probabilidad equivale a la volatilidad del precio. Insisto en que la gente suele confundir estos dos términos y no tienen nada que ver, ni conceptualmente ni por supuesto en la forma de calcularlos (procedimentalmente). La "esperanza matemática" del precio y su "volatilidad" son evidentemente más complejas y sofisticadas de calcular que sus “primas” el "promedio" y la "desviación típica", y esta es la razón principal de su abandono o desconocimiento, en favor de la estadística.
Podemos esquematizar la relación entre estos cuatro parámetros de la siguiente forma:
ESTADISTICA [media + desviación] ==> PROBABILIDAD [esperanza + volatilidad]
donde:
media = valor medio = promedio.
desviación = desviación típica = Volatilidad HISTORICA.
esperanza = valor probable = esperanza matemática.
volatilidad (distinta de la "desviación típica") = Volatilidad FUTURA => Volatilidad IMPLICITA.
Obsérvese que un mismo concepto recibe distintos nombres, y no debemos caer en la confusión. Especial mención merece la Volatilidad Implícita, habitualmente utilizada en los productos derivados (Futuros – Opciones). La Volatilidad Implícita no coincide exactamente con la Futura, y debería hacerlo puesto que es la que sirve de base de cálculo para el coste de las primas de los contratos derivados. “Oficialmente” se admite que NO es posible el cálculo de una Volatilidad Futura (cosa que no es cierta, como estoy afirmando en el presente artículo), y en consecuencia se utiliza la “Volatilidad Implícita”, que se define como una “mezcla de volatilidades que utilizan los “agentes del mercado” en función del riesgo que perciben en cada momento” . Como se puede ver, esta “definición” es muy ambigua, y evidentemente da mucho juego a la manipulación, en beneficio de las instituciones financieras que comercializan estos productos. Este es un ejemplo muy concreto de cómo se puede aprovechar la sofisticación para engañar a la gente. Es buen momento para recordar una máxima inversora, atribuida a Warren Buffett: “Nunca invierta en un negocio que no pueda entender ”. Es por ello que siempre he dicho que los Derivados son una maravilla como Teoría Científica, pero eso en absoluto garantiza que sean una excelente herramienta especulativa o inversora, todo lo contrario !!!,... son nefastos debido a la manipulación (muy subliminal y sofisticada) que de ellos puede derivarse. Pero bueno, esto ya es otra “historia interminable”, que nos apartaría completamente del tema central que estamos tratando.
Es ahora cuando conviene distinguir con claridad estos términos, para poner de manifiesto la marcada diferencia entre Estadística y Probabilidad. Me centraré en la cuestión conceptual, la cuestión procedimental, bastante más compleja como ya dije antes, quizás la desarrollaré con un ejemplo matemático en un artículo de ampliación.
Tal como dije al principio, pensemos en la evolución de una empresa como TEF durante el año 2010. Tomamos el histórico de cierres durante todo ese año, y supongamos que obtenemos un precio medio de 17 €.
Imaginemos ahora que tenemos una maravillosa “máquina del tiempo” que nos permite repetir, y vivir de nuevo, el año 2010. Para estar en las “mismas condiciones iniciales” que el año 2010 anterior, supondremos además que TEF parte del mismo precio inicial (el 1 de Enero). Si al final del año volvemos a analizar el histórico de cierres para calcular el precio medio, veríamos que NO sería el mismo de antes (17€),... pongamos que fuera de 13 €.
Imaginemos ahora que “le damos a la maquinita del tiempo” seis veces más, y obtenemos los siguientes precios medios, para seis nuevos años 2010 simulados: 39, 27, 9, 23, 21 y 11 euros.
Pues bien,... la “Esperanza Matemática del precio”, es decir el “precio Probable” es la media aritmética de esos ocho precios obtenidos:
Precio Probable = (17+13+39+27+9+23+21+11)/8 = 20€
OBSERVACION 1: en realidad los 20€ son una aproximación al “Precio Probable”; aproximación que sería mayor cuantas más veces repitiésemos el experimento con la maquina del tiempo.
Así por ejemplo, si quisiéramos obtener una precisión del “Precio Probable” de aproximadamente hasta las centésimas (céntimo de euro), tendríamos que repetir el experimento unas 100 veces,... si queremos precisión hasta la milésima, repetiríamos 1000 veces,... etc.
Dicho de una forma muy sintetizada, “la Estadística tiende (se aproxima) a la Probabilidad cuando el número de experimentos aumenta”, y en particular "la Estadística coincide exactamente con la Probabilidad cuando el numero de experimentos es infinito". En el argot matemático esta circunstancia es lo que se conoce como “Ley de los Grandes Números”, que en realidad es un Teorema, y por lo tanto teóricamente demostrable.
OBSERVACION 2: si queremos hacer una estimación (FUTURA) del precio de TEF para el siguiente año 2011, será más preciso el valor de 20€ que el de 17€, por razones obvias (20 está más próximo simultáneamente al conjunto de todos los precios obtenidos). Estas razones “obvias” son de extraordinaria importancia, por eso las explico en detalle en el articulo “Probabilidad y Estadística (II)”
El precio 17 no es un disparate, puede ser una previsión razonable, pero 20 es mucho mejor,... ¿me explico?
OBSERVACION 3: hay varias circunstancias externas a las empresas (sociales, políticas, culturales, económicas, naturales) que afectan a la evolución de su precio (plagas, modas, cambio de gobierno, terremotos, devaluaciones, quiebras, descubrimientos tecnológicos, descubrimientos de grandes recursos minerales o petrolíferos, conflictos bélicos, nichos de mercado, etc.). Estas circunstancias son puramente casuales e imprevisibles (azarosas), y por lo tanto compatibles con la hipótesis aleatoria del mercado (en contra de lo que mucha gente cree). Sin embargo hay dos "componentes de deriva" en la evolución de los precios de Mercado, que NO son aleatorias: una "componente tecnológica" y otra "componente inflacionaria".
-La "componente tecnológica" es el efecto positivo que ejerce sobre los precios el desarrollo tecnológico, que hace que cada vez los procesos productivos y los servicios sean más eficientes, y por lo tanto las empresas tengan más beneficios y sean más rentables.
-La "componente inflacionaria" también ejerce una influencia positiva sobre el precio de cotización, y se debe a que la cuantificación del valor de las empresas se hace con dinero (ojo: aquí más que nunca conviene NO confundir valor con precio !!!). Si el valor de una empresa se cuantifica en dinero, y el Banco Central de turno se dedica a imprimir un montón de billetes para ponerlos en circulación, lógicamente esos billetes tendrán menos valor,... por decirlo de alguna manera es como si el Banco Central hubiera hecho una "ampliación de capital liberada". Como el valor real de la empresa es material y objetivo (bienes raíces), la medida de su valor en dinero deberá AUMENTAR para compensar la devaluación de dicho dinero (que nada tiene que ver con la devaluación de la empresa, ya que la empresa NO se ha devaluado). Es decir, se ha devaluado el precio de la empresa, pero no su valor,... por lo tanto el precio debe subir.
Estas dos componentes actúan gradual y paulatinamente en el Mercado, de forma que no se notan a corto plazo, y sólo se manifiestan de forma evidente a muy Largo Plazo (años). Esto hace que a muy corto plazo (p.e un año) su efecto sea despreciable frente a la "componente aleatoria", pero a "Largo Plazo" NO. De hecho se estima que el promedio de rentabilidad anual de la Renta Variable a lo largo de los años es de aproximadamente un 8%. Sabemos que la "componente inflacionaria" supone aproximadamente un 4% anual a lo largo de los años, por lo tanto podemos suponer que el 4% restante se debe a la "componente tecnológica", y en consecuencia que la aportación de la "componente aleatoria" a lo largo de los años es NULA.
Aprovecho la ocasión para señalar que esto constituye una prueba más (empírica) en favor de una de las hipótesis más fundamentales del Mercado, la HIPOTESIS ALEATORIA (descontando la manipulación, la corrupción, y las dos componentes de deriva que acabo de comentar).
Así pues, podemos sintetizar la situación mediante la siguiente ecuación:
Evolución =Inflación + Tecnología + Fluctuación = 8% =4% + 4% + 0%
...Pues bien,... el hecho de la existencia de estas dos "componentes de deriva", junto con la necesidad de que cada año deberíamos empezar (el 1 de enero) con el mismo precio, hace imposible que podamos realizar el "experimento del año 2010" utilizando los históricos de cierres reales de varios años. Como acabo de decir, para un solo año se puede considerar que el precio fluctúa totalmente de forma aleatoria, habida cuenta de que las componentes inflacionaria y tecnológica son despreciables en este corto periodo de tiempo, pero a largo plazo,.. y ya sabemos por la Ley de los Grandes Números que en este experimento necesitaríamos muchos años (cuantos más mejor) para calcular el "Precio Probable" con suficiente precisión,... son las componentes de deriva las que se hacen preponderantes frente a la "componerte aleatoria", que de hecho prácticamente se reduce a cero (como corresponde a una variable que fluctúa aleatoriamente durante mucho tiempo).
En definitiva no nos queda otra alternativa que "utilizar la máquina del tiempo" como hemos hecho (o una simulación por ordenador).
_____________________________________________________________________
Análogamente, la diferencia conceptual entre “Desviación Típica” y “Volatilidad” tiene las mismas características: la Volatilidad prevista (más probable) para el año 2011, sería la media aritmética de todas las Desviaciones Típicas obtenidas en las sucesivas repeticiones del año 2010 con la “máquina del tiempo”.
_____________________________________________________________________
El cálculo del “Precio Probable” es especialmente complicado ya que, entre otras cosas, requiere el establecimiento preciso de una “Función de Distribución de Probabilidad”.
El cálculo de la Volatilidad es más sencillo, y posiblemente le dedique un artículo en el futuro ya que, además de la importancia intrínseca de la propia Volatilidad, de ella también se derivan importantes consecuencias respecto al Largo Plazo.
Estos cálculos teóricos nos llevan a los valores exactos del “Precio Probable” y la “Volatilidad”, y no tienen nada que ver con el procedimiento que acabo de utilizar en la exposición conceptual. Evidentemente esto es así porque sería imposible poder repetir el “experimento del año 2010” infinitas veces. Con este experimento podríamos aproximarnos a esos valores exactos todo lo que quisiéramos, pero nunca llegar a los valores exactos.
De todas formas lo que sí puede hacerse, y resulta muy interesante, es simular el “experimento del año 2010” con un programa informático generador de series aleatorias, y comprobar de esta forma cómo los resultados que se obtienen con el ordenador, se van aproximando a los valores teóricos exactos a medida que vamos aumentando el número de repeticiones.
De esta forma es como empecé hace varios años en el interesantísimo estudio del mundo de la Bolsa. El ver como los resultados iban cuadrando, es lo que me llevó paulatinamente a profundizar en el tema, y afianzarme cada vez más en mis creencias y convicciones.
Mi inicio en Bolsa fue puramente teórico y conceptual, nada que ver con cuestiones crematísticas en las que no estaba interesado lo más mínimo. Posteriormente han sido los interesantes resultados y conclusiones a los que he llegado, los que de alguna manera me “han obligado” a participar realmente en Bolsa, como inversor.
Aprovecho una vez más la ocasión, para manifestar el deseo de que mi experiencia como inversor, tanto teórica como práctica, os pueda ser de alguna utilidad. Y agradecer a los que me hacéis un estrecho seguimiento, por vuestros comentarios y sugerencias.
_____________________________________________________________________