Nos gusta la certidumbre. Prever lo que puede ocurrir, para estar preparado. En el siglo XXI pensábamos que seríamos mucho mejores prediciendo de lo que realmente somos. Pero el mundo cada vez va más rápido, y la información de que disponemos se acumula a un ritmo cada vez mayor.

Cualquier intento de organizar los datos que nos llegan y de utilizarlos para dilucidar qué podría ocurrir a continuación puede llevar al colapso y al aturdimiento. Los humanos confiamos demasiado en sus capacidades predictivas. Nos cuesta pensar en términos probabilísticos y construir modelos que no permitan la incertidumbre.

Esa es justamente el foco de La señal y el ruido de Nate Silver. Este especialista en predicciones (saltó a la fama durante la segunda campaña presidencial de Obama, en la que predijo casi al milímetro el número de votos que le darían la victoria) investiga cómo podemos distinguir, en medio del universo de datos que nos rodean, la información que es valiosa de la que no lo es.

El autor explica por qué tantas predicciones de los expertos hoy en día fallan espectacularmente, y qué herramientas estadísticas y de probabilidad están más a la altura de la tarea de predecir fenómenos del mundo real.

Principales ideas de La señal y el ruido

  • Los economistas son malos tanto para pronosticar la economía como para estimar la certeza de sus pronósticos.
  • Pronosticar la economía es muy difícil porque es un sistema complicado y dinámico.
  • Los pronósticos basados en estadísticas por sí solos no son suficientes: aún se necesita el análisis humano.
  • Muchos expertos no lograron predecir el colapso de la burbuja inmobiliaria estadounidense en 2008.
  • El exceso de optimismo en el gobierno y los bancos estadounidenses también estimuló la crisis financiera.
  • El teorema de Bayes puede ayudarle a actualizar sus creencias de forma racional a medida que surge nueva información.
  • Las predicciones cautelosas, meticulosas y diversas tienden a ser mejores que las atrevidas.
  • Los mercados de valores son difíciles de superar porque tienden a ser eficientes.
  • Las burbujas del mercado de valores se pueden predecir observando los precios de las acciones y la relación P/E.
  • Los modelos climáticos simples tienden a funcionar mejor que los complicados.
  • Es difícil, pero no imposible, predecir y prevenir ataques terroristas.

Los economistas son malos tanto para pronosticar la economía como para estimar la certeza de sus pronósticos.

En nuestra vida cotidiana, tomamos decisiones basadas en predicciones de lo que sucederá en el futuro, como si lloverá o brillará el sol.

Pero las predicciones también son comunes en el ámbito público: los analistas del mercado de valores, los meteorólogos y los comentaristas deportivos se ganan la vida con ellas.

Un área donde se podrían esperar predicciones particularmente buenas es la economía. Después de todo, es de crucial importancia para los individuos, las empresas e incluso las naciones, y hay una gran cantidad de datos disponibles: algunas empresas rastrean hasta cuatro millones de indicadores económicos.

Pero a pesar de estos factores, los economistas tienen un historial atroz en materia de pronósticos.

Consideremos el indicador económico comúnmente pronosticado: el producto interno bruto (PIB).

El primer problema con las predicciones del PIB es que los economistas suelen hacer predicciones como «El año que viene, el PIB aumentará un 2,7 por ciento». De hecho, han obtenido esta cifra a partir de un amplio intervalo de predicción que dice algo como: «Es un 90 por ciento probable que el crecimiento del PIB caiga entre 1,3 y 4,2 por ciento». Por lo tanto, un número exacto como predicción es engañoso, ya que da una falsa sensación de precisión y seguridad.

Lo que es peor, los economistas tampoco son muy buenos para establecer intervalos de predicción. Si sus intervalos de predicción del 90 por ciento fueran aproximadamente exactos, uno esperaría que el PIB real sólo quedara fuera del intervalo de predicción una de cada diez veces. Sin embargo, una encuesta entre pronosticadores profesionales muestra que, desde 1968, se han equivocado aproximadamente la mitad de las veces. Por lo tanto, parece que los economistas no sólo son malos predictores sino que también sobrestiman gravemente la certeza de sus predicciones.

Además de las predicciones del PIB, los economistas también son espectacularmente malos a la hora de pronosticar depresiones. Consideremos que, en la década de 1990, los economistas sólo podían predecir dos de las sesenta depresiones que habían ocurrido en todo el mundo con un año de antelación.

Para decirlo amablemente, las predicciones económicas deben tomarse al menos con cautela.

Pronosticar la economía es muy difícil porque es un sistema complicado y dinámico.

¿Por qué es tan difícil predecir la economía?

Sencillamente, porque una asombrosa cantidad de factores entrelazados pueden influir en ello: un tsunami que azote Taiwán puede afectar la posibilidad de que alguien consiga un trabajo en Oklahoma.

Es más, descubrir la relación causal entre diferentes factores económicos puede ser un dolor de cabeza. Por ejemplo, generalmente se considera que las tasas de desempleo se ven afectadas por la salud subyacente de la economía porque las empresas tienden a contratar más en climas económicos saludables. Pero las tasas de desempleo también influyen en la cantidad de dinero que los consumidores tienen para gastar, lo que afecta la demanda de los consumidores y, por tanto, la salud general de la economía.

El ejemplo anterior ilustra otro factor que complica la situación: los bucles de retroalimentación. Cuando las empresas aumentan sus ventas, las incita a contratar más trabajadores. Esto les da a esos trabajadores más ingresos disponibles, lo que aumenta el consumo e impulsa aún más las ventas.

También hay factores externos que pueden distorsionar el significado de muchos indicadores económicos. Por ejemplo, el aumento de los precios de la vivienda suele ser un indicador positivo, pero no si las políticas gubernamentales los inflan artificialmente.

Irónicamente, incluso las predicciones económicas en sí mismas también pueden afectar la economía a medida que las personas y las empresas ajustan su comportamiento en función de ellas.

Y no sólo el estado de la economía se ve afectado por una miríada de factores: los fundamentos mismos de la previsión también están en constante cambio.

En primer lugar, la economía global está en constante evolución, por lo que incluso las teorías probadas y verdaderas quedan rápidamente obsoletas. Pero como es imposible predecir exactamente cuándo sucederá esto, se confía en las reglas generales existentes hasta que se descubre que se infringen.

En segundo lugar, las fuentes de datos con las que trabajan los economistas para comprender el pasado y el presente son muy poco fiables y están sujetas a revisión constante. Por ejemplo, los datos del gobierno estadounidense sobre el último trimestre de 2008 indicaron una caída de apenas el 3,8 por ciento en el PIB, pero los datos fueron revisados ​​posteriormente e indicaron una caída cercana al 9 por ciento.

No es de extrañar que sea difícil conseguir predicciones precisas.

Los pronósticos basados ​​en estadísticas por sí solos no son suficientes: aún se necesita el análisis humano.

Como se indicó anteriormente, la economía es una red tan compleja de factores interrelacionados que la causalidad es difícil de definir. Esto ha llevado a muchos economistas a probar un enfoque puramente estadístico: en lugar de intentar comprender qué causas tienen qué efectos, simplemente observan enormes cantidades de datos con la esperanza de detectar patrones.

Desafortunadamente, este enfoque está plagado de posibles errores porque es inevitable que surjan algunos patrones debido únicamente a la coincidencia.

Por ejemplo, consideremos que de 1967 a 1997, el ganador del Super Bowl parecía fuertemente correlacionado con el desarrollo económico: en veintiocho de esos treinta años, un ganador de la Liga Nacional de Fútbol significaba ganancias en el mercado de valores durante el resto del año. mientras que un ganador originario de la liga de fútbol americano predijo pérdidas en el mercado de valores. Las estadísticas indican que la probabilidad de que esta relación sea una coincidencia es de una entre 4.700.000. Claramente, los economistas deberían empezar a mirar más fútbol, ​​¿verdad?

Equivocado. De hecho, esta correlación se debe únicamente al azar y, desde 1998, la tendencia se ha invertido.

Con más de cuatro millones de indicadores económicos rastreados, está claro que surgirán algunas correlaciones coincidentes como ésta. Y confiar en ellos para hacer predicciones acabará resultando contraproducente, porque la coincidencia llegará a su fin algún día.

Por lo tanto, es crucial que, incluso si utilizamos la tecnología para analizar enormes masas de datos, todavía haya un ser humano allí para hacer el análisis y considerar si existe una causalidad plausible.

Pero mucha gente no se da cuenta de esto. En lugar de ello, intentan obtener cada vez más información y variables económicas para hacer predicciones, creyendo que eso hará que las predicciones sean más precisas cuando, en realidad, lo único que hace es aumentar la cantidad de información inútil –o ruido–, lo que a su vez hace que sea más precisa. Es más difícil detectar información útil (o la señal) escondida en su interior.

Muchos expertos no lograron predecir el colapso de la burbuja inmobiliaria estadounidense en 2008.

Dirijamos ahora la mirada a cuatro fallos de previsión en el período previo a la crisis financiera de 2008, empezando por los relacionados con la burbuja inmobiliaria.

El primero fue la creencia excesivamente optimista de los propietarios de viviendas, prestamistas, corredores y agencias de calificación de que el meteórico aumento de los precios de las viviendas en Estados Unidos continuaría indefinidamente. Mantenían esta creencia a pesar de que, históricamente, un aumento meteórico de los precios de la vivienda combinado con ahorros récord siempre había conducido a una crisis.

Entonces, ¿cómo es posible que a todos se les haya escapado eso?

Un factor que contribuyó probablemente fue que todo el mundo estaba ganando demasiado dinero en el mercado en auge como para empezar a preguntarse si una recesión podría estar a la vuelta de la esquina.

El segundo fallo lo cometieron las agencias de calificación respecto del riesgo de los instrumentos financieros llamados obligaciones de deuda colateralizada (CDO), que consistían en un paquete de deudas hipotecarias. La idea era que, a medida que los propietarios hicieran pagos de sus hipotecas, los inversores que poseyeran CDO obtendrían ganancias.

Dado que las CDO eran un tipo de instrumento financiero completamente nuevo, las agencias tenían que confiar únicamente en modelos estadísticos basados ​​en el riesgo de incumplimiento de las hipotecas individuales. Desafortunadamente, esto descuidó la posibilidad de una crisis inmobiliaria a gran escala que podría hacer bajar los precios en todos los ámbitos.

El resultado fue, por supuesto, desastroso. La agencia de calificación Standard & Poor’s había afirmado, por ejemplo, que los CDO a los que había otorgado una calificación AAA sólo tenían un 0,12 por ciento de posibilidades de incumplir, pero, de hecho, alrededor del 28 por ciento de ellos terminaron incumpliendo.

El exceso de optimismo en el gobierno y los bancos estadounidenses también estimuló la crisis financiera.

Continuando con el punto anterior, examinemos los otros dos errores de pronóstico que contribuyeron a la crisis financiera que comenzó en 2008.

El tercer fallo predictivo ocurrió en las instituciones financieras estadounidenses, que estaban tan ansiosas por perseguir ganancias en el mercado en auge que se apalancaron excesivamente con deuda para realizar más inversiones.

Tomemos como ejemplo el banco de inversión Lehman Brothers, que se había apalancado de modo que sólo tenía 1 dólar de su propio capital por cada 33 dólares de posiciones financieras que mantenía. En otras palabras, si el valor de su cartera hubiera disminuido incluso un 4 por ciento, se habría enfrentado a la quiebra. Otros grandes bancos estadounidenses también tenían niveles de apalancamiento igualmente altos. Era como si la industria creyera colectivamente que una recesión era imposible.

Por supuesto, este apalancamiento les estaba ayudando a obtener enormes ganancias en ese momento, por lo que nadie estaba demasiado interesado en considerar seriamente la probabilidad de una recesión.

El cuarto fallo en la predicción lo cometió el gobierno de Estados Unidos después de que estallara la recesión. Mientras el equipo económico del gobierno elaboraba el paquete de estímulo en 2009, pensaban que se enfrentaban a una recesión normal en la que las cifras de empleo se recuperarían en uno o dos años. Pero la historia muestra que las recesiones causadas por una crisis financiera generalmente hacen que las tasas de desempleo se mantengan altas durante cuatro a seis años, y dado que esta recesión fue causada por una crisis de ese tipo, deberían haberlo sabido mejor. Esto hizo que su paquete de estímulo fuera lamentablemente inadecuado.

El teorema de Bayes puede ayudarle a actualizar sus creencias de forma racional a medida que surge nueva información.

Como hemos visto, la previsión está plagada de dificultades.

Una forma clave de superarlos al estimar probabilidades es adoptar el llamado enfoque bayesiano, un teorema basado en el trabajo del ministro inglés del siglo XVIII Thomas Bayes. Este enfoque proporciona un marco matemático para actualizar las creencias de una manera racional a medida que llega nueva información.

Como ejemplo de cómo se deben actualizar las creencias, consideremos este escenario: usted es una mujer de unos cuarenta años preocupada por el cáncer de mama, por lo que desea predecir la probabilidad de que lo padezca.

Para empezar, verá que los estudios indican que alrededor del 1,4 por ciento de las mujeres desarrollan cáncer de mama a los cuarenta años. Esto se conoce como probabilidad previa : la probabilidad que asume antes de obtener información nueva.

Entonces decide hacerse una mamografía, ya que ese procedimiento puede detectar el cáncer de mama. Para su horror, el resultado es positivo.

¿Qué significa eso?

Probablemente menos de lo que piensas.

Las mamografías no son en absoluto infalibles. Por un lado, si una mujer tiene cáncer de mama, una mamografía sólo lo descubrirá alrededor del 75 por ciento de las veces. Por otro lado, incluso si una mujer no tiene cáncer de mama, una mamografía indicará que sí lo tiene aproximadamente el 10 por ciento de las veces.

Entonces, sabiendo esto y el teorema de Bayes, ¿qué probabilidad hay de que usted tenga cáncer de mama después de una mamografía positiva?

Quizás le sorprenda saber que la probabilidad es sólo del 10 por ciento. Es más, los datos clínicos lo confirman.

Esta sorpresa pone de relieve que no tenemos una muy buena comprensión intuitiva de cómo la información nueva, como el resultado de la mamografía, interactúa con la información antigua.

En concreto, tendemos a centrarnos demasiado en las novedades, enfatizando demasiado el resultado de la mamografía y olvidando que, de hecho, la incidencia de cáncer de mama es tan baja que los falsos positivos superan con creces a los positivos correctos.

Usar el teorema de Bayes nos ayuda a evitar nuestros sesgos inherentes, como nuestra preferencia por información reciente.

Las predicciones cautelosas, meticulosas y diversas tienden a ser mejores que las atrevidas.

Para comprender otra clave para hacer mejores pronósticos, echemos un vistazo a qué tipo de personas hacen las mejores predicciones.

A partir de 1987, un psicólogo y politólogo llamado Philip Tetlock comenzó a registrar predicciones sobre temas como la política y la economía realizadas por una amplia variedad de expertos.

Después de analizar la precisión de estas predicciones, así como las personalidades y estilos de pensamiento de los expertos que las hicieron, Tetlock comenzó a ver un patrón claro.

Resultó que los predictores más exitosos eran propensos a utilizar estrategias en las que intentaban integrar muchos pequeños conocimientos, mientras que los menos exitosos tendían a aferrarse a una gran idea o hecho.

A estos dos tipos de personas los llamó erizos y zorros.

Los erizos suelen ser descarados y confiados, y afirman haber descubierto grandes principios rectores a los que se adhiere el mundo: piense en Sigmund Freud y el inconsciente.

Los zorros, sin embargo, tienden a ser más cautelosos y meticulosos, contemplando los asuntos desde diversas perspectivas y sopesando cuidadosamente los pros y los contras. También son más propensos que los erizos a confiar en evidencia y datos empíricos, descartando voluntariamente sus propias ideologías y prejuicios y dejando que los datos hablen por sí solos.

Por supuesto, la confianza de los erizos tiene mucho más atractivo mediático, por lo que sus predicciones tienden a atraer mucha más atención que las de los zorros. Pero, al final del día, fueron los zorros quienes tuvieron mejores predicciones. De hecho, las predicciones de los erizos fueron en general sólo un poco mejores que las hechas al azar.

Por lo tanto, parece que los buenos predictores se logran teniendo en cuenta muchos factores diferentes y sopesándolos desde tantas perspectivas, no confiando en verdades grandes y simples.

Los mercados de valores son difíciles de superar porque tienden a ser eficientes.

Un fenómeno notoriamente difícil de predecir es el comportamiento a corto plazo del mercado de valores. Claro, a largo plazo, el valor promedio de las acciones tiende a aumentar, pero esta información es de poca utilidad para la mayoría de los comerciantes porque quieren «ganarle al mercado».

Un deseo que ha demostrado ser espectacularmente difícil de cumplir.

Por un lado, es difícil para una sola persona predecir bien el comportamiento del mercado. De hecho, un estudio demostró que cuando setenta economistas hacían pronósticos del mercado de valores durante un período de varios años, su predicción agregada siempre era mejor que la de cualquier individuo.

Esta dificultad también se observó en un estudio de fondos mutuos y de cobertura: encontró que, sólo porque a un fondo le fue bien en un año en particular, no tenía más probabilidades que los demás de vencer a su competencia en el año siguiente. Claramente, el éxito fue sólo una casualidad y ningún fondo fue realmente mejor que los demás para predecir el mercado.

¿Por qué es tan difícil ganarle al mercado?

Porque el mercado de valores suele ser muy eficiente , es decir, no se pueden obtener ganancias fáciles y seguras. La mayoría de las operaciones las realizan personas muy inteligentes y capaces en nombre de grandes instituciones financieras que tienen enormes cantidades de datos y experiencia a su disposición. Esto significa que si una acción está sobrevalorada o infravalorada, el mercado lo corregirá muy rápidamente.

La única forma segura de ganarle al mercado es saber algo que nadie más sabe. Y la única fuente de tal ventaja tiende a ser la información privilegiada ilegal . Curiosamente, un grupo de inversores que parecen especialmente expertos en ganarle al mercado son los miembros del Congreso, cuyas inversiones tienden a superar los rendimientos del mercado en general entre un 5 y un 10 por ciento anual. Esto es especialmente digno de mención dado que tienen acceso a información privilegiada a través de grupos de presión y también pueden afectar las perspectivas comerciales de las empresas a través de la legislación.

Las burbujas del mercado de valores se pueden predecir observando los precios de las acciones y la relación P/E.

Aunque el mercado de valores suele tender a ser eficiente, esto no es cierto cuando se forman burbujas, es decir, situaciones en las que las acciones están sobrevaluadas.

Aunque no existe una forma infalible de predecir una burbuja, existen algunas señales reveladoras.

En primer lugar, está la pista obvia: un fuerte aumento de los precios de las acciones en general. De hecho, si analizamos los casos históricos en los que el índice bursátil S&P 500 aumentó al doble de su promedio a largo plazo en cinco años, en cinco de los ocho casos terminó en una caída grave.

En segundo lugar, puede estar atento al precio/ganancias, o relación P/E , de las acciones: el precio de mercado por acción dividido por las ganancias anuales totales de la empresa por acción.

A largo plazo, la relación P/E de todo el mercado tiende a ser de alrededor de 15. Esto significa que si la relación P/E promedio en el mercado es muy superior a eso, digamos 30 (como había sido en el apogeo del burbuja de las puntocom en 2000: tenemos un indicio bastante claro de que se está formando una burbuja.

Pero ¿por qué se forman esas burbujas? ¿No deberían los inversores detectarlos y venderlos, haciendo así que los precios vuelvan a bajar?

Bueno, en realidad, si lo piensas bien, no deberían hacerlo.

Verá, la mayoría de los inversores institucionales invierten en nombre de su empresa y sus clientes. Cuando se desempeñan bien, obtienen enormes bonificaciones, y cuando se desempeñan mal, pueden ser despedidos.

Por lo tanto, incluso cuando ven que se está formando una burbuja, siguen comprando y obteniendo bonificaciones a medida que el mercado se dispara. Cuando finalmente ocurra el colapso, solo habrán perdido el dinero de su empresa y de sus clientes, no el suyo propio.

Es más, todos sus compañeros hacen lo mismo, por lo que es poco probable que los señalen y los despidan. De hecho, después de las últimas tres grandes crisis en Wall Street, sólo alrededor del 20 por ciento del personal perdió su empleo, por lo que hay un 80 por ciento de posibilidades de que los operadores conserven sus empleos incluso si ignoran la burbuja.

Los modelos climáticos simples tienden a funcionar mejor que los complicados.

Al igual que la economía, el clima comprende un sistema muy complicado e interrelacionado que es muy difícil de modelar y hacer predicciones sobre él.

Incluso los modelos muy sofisticados que tienen en cuenta innumerables factores, como los ciclos de El Niño y las manchas solares, han fracasado estrepitosamente. Por ejemplo, el Panel Internacional sobre el Cambio Climático (IPCC) basó su predicción de 1990 en un modelo tan complicado, afirmando que, durante los próximos cien años, las temperaturas globales aumentarían entre dos y cinco grados, siendo tres grados el resultado más probable. Pero las observaciones realizadas durante los siguientes once años indicaron que esto era completamente erróneo: el ritmo fue de sólo 1,5 grados por siglo, incluso por debajo del extremo más bajo de su estimación del IPCC.

Los propios científicos del clima son muy conscientes de lo difícil que es elaborar modelos: si bien casi todos están de acuerdo en que el cambio climático se debe a la actividad humana, son mucho más escépticos sobre la precisión de sus modelos y los posibles efectos que tendrá el cambio climático. Por ejemplo, sólo el 19 por ciento consideró que sus modelos del aumento del nivel del mar debido al cambio climático eran buenos.

Por tanto, parece que los modelos climáticos que utilizan muchos datos no son precisos. Pero ¿podríamos encontrar un modelo más simple, que preste atención sólo a la señal y no al ruido de innumerables variables?

Resulta que el nivel de CO 2 en la atmósfera es esa señal. Los modelos simples de la década de 1980 que se basan únicamente en los niveles actuales y proyectados de CO 2 predicen mucho mejor el desarrollo de la temperatura global que los posteriores, más complicados.

Es más, esta relación no es una mera casualidad estadística porque tiene una causa y un efecto plausibles. El efecto invernadero es un fenómeno físico bien establecido: los gases de efecto invernadero como el CO 2 se acumulan en la atmósfera y atrapan el calor en ella.

Desafortunadamente, las predicciones precisas son sólo una parte de la solución: las naciones deben tomar medidas colectivas para cambiar la tendencia.

Es difícil, pero no imposible, predecir y prevenir ataques terroristas.

Todos hemos oído hablar de teorías de conspiración relacionadas con los ataques del 11 de septiembre al World Trade Center. Algunos afirman que los ataques fueron tan obviamente predecibles que el gobierno de Estados Unidos debió haberlos conocido de antemano.

Por ejemplo, en julio de 2001, hubo una advertencia sobre una intensificación de la actividad de Al-Qaeda, y en agosto de 2001, un fundamentalista islámico fue arrestado debido a su solicitud sospechosa de que se le permitiera practicar vuelos en un simulador de Boeing 747. Además, ya se habían descubierto complots terroristas anteriores de estrellar aviones comerciales contra edificios.

Pero, en realidad, el significado de estas señales sólo resulta evidente en retrospectiva. En ese momento, todo esto era mero ruido: las agencias de seguridad encargadas de prevenir el terrorismo tienen que examinar cientos de miles de pistas potenciales, la gran mayoría de las cuales no conducen a ninguna parte.

Sin embargo, el gobierno de Estados Unidos no debería haberse sorprendido tanto por este ataque a gran escala.

¿Por qué?

Porque los datos indican que tales ataques son realmente esperables: la frecuencia y gravedad de los ataques terroristas siguen un patrón conocido como curva de Clauset. Básicamente, cuando los ataques se agrupan según la cantidad de muertes que causaron y luego se traza su frecuencia, vemos una curva doble logarítmica muy predecible donde los ataques se vuelven menos frecuentes cuanto más devastadores son.

La curva de Clauset indica claramente que un ataque en la escala del 11 de septiembre ocurre aproximadamente una vez cada ochenta años, por lo que el gobierno debería haber estado abierto a esta posibilidad.

La buena noticia es que parece que la curva de Clauset no está escrita en piedra.

Israel parece haber encontrado una manera exitosa de negar el extremo superior de la curva de Clauset al centrar casi todos sus esfuerzos en prevenir ataques a gran escala, mientras trata los ataques a pequeña escala como algo casi parecido a un mero crimen. El resultado ha sido que, desde 1979, ningún ataque se ha cobrado la vida de más de 200 personas a la vez.

Conclusiones La señal y el ruido

Los expertos en muchas áreas tienden a hacer predicciones sorprendentemente pobres, pero expresan demasiada confianza en su precisión. Todos ellos rastrean datos en busca de correlaciones pero, en un mundo con cantidades de datos en rápido aumento, esto seguramente dará como resultado patrones coincidentes que eventualmente será contraproducente.

Post relacionados: