Economía experimental

From Wikipedia, the free encyclopedia

Economía experimental
Campo de estudio

La economía experimental es la rama de la ciencia económica que se enfoca en el análisis y diseño de métodos experimentales para estudiar cuestiones económicas. Los métodos experimentales van desde el experimentos de laboratorio, hasta los experimentos de campo, experimentos de encuesta y el experimento natural. Los experimentos pueden ser de pequeña escala, incluso desde el aula de clases,[1] y de gran escala, como un mercado particular.[2][3][4][5][6][7] La economía experimental, a través de sus metodologías de diseño, ofrece un lente privilegiado para desentrañar los mecanismos causales del comportamiento humano y, por ende, ilumina un vasto espectro de interrogantes en la ciencias económica y en las ciencias sociales.[8][9][10][11][12][13]

Se ha concedido 3 reconocimientos a la economía experimental con el Premio Nobel Conmemorativo de Economía hasta el momento:

En 2021 fue otorgado conjuntamente a David Card, Joshua Angrist y Guido W. Imbens, empleando experimentos naturales.[14]

En 2019 fue otorgado conjuntamente a Abhijit Banerjee, Esther Duflo y Michael Kremer, empleando experimentos controlados aleatorizados (ensayos controlados aleatorios [RCTs]).[15]

En 2002 fue otorgado conjuntamente a Daniel Kahneman y Vernon Smith (de no haber fallecido, Amos Tversky habría compartido con Kahneman el reconocimiento), empleando experimentos de laboratorio.[16]

Un aspecto fundamental de la asignatura es el diseño de experimentos. Los experimentos pueden llevarse a cabo en el campo o en el laboratorio, ya sea del individuo o grupo de comportamiento.[17]

Las diferentes variantes del tema estos incluyen experimentos naturales y experimentos cuasi-naturales.[18]

1. El espectro empírico con sujetos humanos (Taxonomía de Harrison y List, 2004)

Esta clasificación asume la participación de agentes humanos y transiciona desde el control absoluto hasta el realismo de mercado:

  • Experimento de Laboratorio (Lab Experiment): Aislamiento paramétrico puro con muestras estandarizadas (estudiantes) y encuadres abstractos.
  • Experimento de Campo Artefactual (Artefactual Field Experiment): Diseño abstracto de laboratorio, pero ejecutado con agentes reales del mercado (p. ej., empresarios o financieros).
  • Experimento de Campo Enmarcado (Framed Field Experiment): Sujetos del mercado real enfrentándose a bienes y decisiones contextualizadas, conscientes del escrutinio empírico.
  • Experimento de Campo Natural (Natural Field Experiment): Aleatorización exógena encubierta dentro del mercado real; los sujetos ignoran que participan en un estudio, revelando sus preferencias puras sin sesgo de observación.

2. Inferencia causal observacional

  • Experimento Natural (Natural Experiment): A diferencia de los anteriores, el investigador no controla la asignación del tratamiento ex-ante. Explotan choques exógenos de la naturaleza, la historia o la política pública (cuasi-aleatorización) utilizando econometría retrospectiva para aislar la causalidad.

3. Experimentos con sujetos no convencionales

Para aislar variables evolutivas o alcanzar escalas computacionales masivas, la disciplina ha expandido su frontera más allá de los sujetos humanos:

  • Experimentación con modelos biológicos no humanos: Uso de modelos animales (primates, ratas, palomas) sometidos a restricciones presupuestarias empíricas para aislar las bases biológicas de la toma de decisiones, el riesgo y el descuento temporal, eliminando sesgos culturales. Ej. Economic Choice Theory: An Experimental Analysis of Animal Behavior (1995) de John H. Kagel; Raymond C. Battalio y Leonard Green.
  • Experimentación in silico y agentes artificiales: Simulaciones computacionales puras. Evolucionó desde el Modelado Basado en Agentes (ABM) estocástico hasta la frontera actual, donde Modelos de Lenguaje Grande (LLMs) actúan como agentes autónomos en juegos conductuales para probar axiomas de racionalidad a escala algorítmica. Ej. de Experimentos in silico es la investigación de "How different ai chatbots behave? benchmarking large language models in behavioral economics games" de Y. Xie, Y. Liu, Z. Ma, L. Shi, X Wang, W. Yuan, M.O. Jackson y Q. Mei. Mientras un ejemplo de exploración de los ABM se encuentran en "Handbook of Computational Economics", Vol. 2: Agent-Based Computational Economics por Leigh Tesfatsion y Kenneth L. Judd y "Behavioral Rationality and Heterogeneous Expectations in Complex Economic Systems" por Cars Hommes.

4. Experimentos de Encuesta (Survey Experiments): Intervención del Proceso Generador de Datos e Identificación Estructural

Esta tipología trasciende la recolección observacional al utilizar la plataforma de encuesta estrictamente como un entorno de confinamiento metodológico. Su validez experimental radica en la alteración activa del Proceso Generador de Datos (DGP), aislando la causalidad mediante la inyección controlada de choques informacionales.

    • Transición de Medición a Identificación: Mientras una encuesta tradicional extrae muestras de una distribución poblacional inherentemente sujeta a sesgos de endogeneidad (debido a características no observadas de los individuos), el experimento de encuesta introduce un tratamiento aleatorizado, como viñetas ortogonales, anclas cognitivas o perturbaciones informacionales. Esto inyecta una variación puramente exógena, transformando el cuestionario de una simple herramienta descriptiva a un mecanismo riguroso de identificación causal.
    • Ortogonalidad y Cumplimiento de SUTVA: La arquitectura asíncrona y estructurada de la encuesta digital aísla al individuo, minimizando el riesgo de contagio de información entre unidades (garantizando así el Supuesto de Valor Estable del Tratamiento de la Unidad o SUTVA). Al aleatorizar la asignación del tratamiento, se asegura su estricta ortogonalidad respecto a las características basales del sujeto. Esta independencia condicional anula el sesgo de selección empírico, permitiendo aislar el Efecto Promedio del Tratamiento simplemente al contrastar los resultados esperados entre grupos.
    • Estimación Estructural de la Elasticidad de Creencias: A diferencia de las tipologías clásicas enfocadas en acciones de mercado observables, este diseño opera sobre los microfundamentos de la formación de preferencias. Al someter al agente a una señal informativa exógena y parametrizada, el diseño rastrea empíricamente cómo las creencias previas (a priori) mutan tras la intervención. Esto permite al econometrista testear empíricamente los axiomas de racionalidad, evaluando si las personas actualizan su información bajo una lógica bayesiana pura o si exhiben fricciones estructurales, como el raciocinio motivado, al reevaluar su función de utilidad.

Origen de la economía experimental

Antecesores remotos

William Stanley Jevons Louis Leon Thurstone Edward Chamberlin

Exponentes primigenios

Fundación de la economía experimental

Vernon Smith tras publicar una serie de investigaciones de economía del transporte[19][20][21] y de economía industrial;[22][23][24][25] dos libros "Inversión y producción: Un estudio sobre la teoría de la empresa que utiliza capital" (1961)[26] y "Economía: un enfoque analítico" (1ed: 1958, 2ed: 1962).[27] Vernon Smith, publicaría el artículo de 1962, "Un estudio experimental del comportamiento del mercado competitivo", publicado en The Journal of Political Economy, se considera ampliamente la obra fundacional que estableció la economía experimental como una metodología rigurosa en este campo.[28]

Vernon Smith

Vernon Smith sería reconocido con el Premio de Economía Conmemorativo de Alfred Nobel en 2002, junto a Daniel Kahneman, “por haber establecido los experimentos de laboratorio como herramienta en el análisis económico empírico, especialmente en el estudio de mecanismos alternativos de mercado”.[29]

Vernon Smith, en su discurso de banquete al recibir el Premio Nobel de Economía en 2002, rindió tributo a los pioneros del movimiento intelectual que llevó a la creación de la economía experimental. En su brindis, menciona específicamente a Sidney Siegel, Amos Tversky, Martin Shubik y Charles Plott como los líderes del movimiento intelectual en sus inicios (Daniel Kahneman también se le reconoce individualmente con mayor énfasis por ser su colaureado. Alvin E. Roth también se le reconoce como un pionero de este campo, sin embargo sus primeros experimentos iniciaron a finales de la década de 1970, posterior al inicio de los enlistados por Vernon Smith).

«La influencia pionera de Sidney Siegel, Amos Tversky, Martin Shubik y Charles Plott en el movimiento intelectual que culminó en el premio de economía de 2002»[30]

En un notable tributo, Vernon Smith, ha reconocido el trabajo seminal de su colega Sidney Siegel, sugiriendo que, de no haber sido por su trágica y prematura muerte, Siegel habría sido co-laureado con él en el Premio Conmemorativo de Ciencias Económicas en memoria de Alfred Nobel. El fallecimiento de Siegel por una trombosis coronaria en noviembre de 1961, a la edad de 45 años, interrumpió una prometedora trayectoria académica que, según Smith, habría acelerado el reconocimiento oficial de la economía experimental a través del máximo galardón de la disciplina.

«Sid, un psicólogo social, fue un científico experimental verdaderamente poderoso que influyó mucho en mí para que me comprometiera con la economía experimental. Murió inesperadamente a los cuarenta y cinco años, pocas semanas después de nuestro encuentro. Finalmente leí todas sus publicaciones, incluyendo su clásico, Nonparametric Statistics, y sus dos libros en coautoría con Lawrence Fouraker. Sid era un maestro experimental, pero mucho más; también utilizaba la teoría y la estadística con gran habilidad en el diseño y análisis de experimentos. Estoy convencido de que si Sid hubiera vivido, no solo habría sido un merecedor del Premio Nobel, muy por delante del resto de nosotros, sino que también el calendario para el reconocimiento de la economía experimental se habría acelerado, quizás varios años. Es importante ser longevo, además de hacer una contribución importante, para obtener dicho reconocimiento. Pero si no, eso no significa que no tendrá influencia o que no merecerá crédito/gracias, más allá de la integridad de la tradición de citación en el ámbito académico.»[31][32]

Experimentos de encuesta

Precursores

  • Daniel Bernoulli y Nicolaus I Bernoulli realizaron encuestas orales o consultas a otros académicos sobre un problema de decisión de un juego de azar con un rendimiento esperado infinito, para encontrar una solución a Paradoja de San Petersburgo, la cual tuvo solución por Daniel Bernoulli en 1738 en su ensayo "Specimen Theoriae Novae de Mensura Sortis", en español "Exposición de una nueva teoría sobre la medición del riesgo" (disponible en inglés en Econométrica, vol. 22 (enero de 1954), págs. 23–36, traducido por Louise Sommer con el apoyo de Karl Menger), la solución aplicando una función de utilidad había sido propuesta por su amigo Gabriel Cramer en una carta 1928 dirigida a Daniel Bernoulli.[33] Se le considera el primer experimento en economía debido a que "la práctica de utilizar problemas de elección hipotéticos para generar hipótesis sobre el comportamiento de elección individual, práctica que se ha utilizado con buenos resultados en investigaciones mucho más modernas sobre la elección individual" en la economía experimental.[34]
  • Maurice Allais publicó "El comportamiento del hombre racional ante el riesgo: Crítica de los postulados y axiomas de la Escuela Americana" en 1953, mostrando las desviaciones del axioma de independencia de la teoría de la utilidad esperada, lo que constituyó la Paradoja de Allais, que sería respondida con modelos de decisión que describen mejor el comportamiento económico en situaciones de riesgo e incertidumbre.
Daniel Bernoulli Nicolaus I Bernoulli Maurice Allais

Desarrollo contemporáneo

Stefanie Stantcheva

Stefanie Stantcheva es la máxima representante actual en el desarrollo de experimentos de encuesta en economía, ganando la Medalla John Bates Clark en 2025. Stefanie Stantcheva ha redefinido el uso de los experimentos de encuesta en la economía empírica, transformándolos de instrumentos pasivos de medición en diseños experimentales rigurosos para identificar los mecanismos causales detrás de las preferencias políticas y la economía conductual. A través de la sistematización de su marco metodológico, Stantcheva (2021) formaliza cómo la introducción de variaciones exógenas y tratamientos informativos (information treatments) dentro de los cuestionarios permite revelar los determinantes ocultos del razonamiento económico frente a políticas complejas como la fiscalidad óptima o el comercio internacional.[35]

Stefanie Stantcheva

Revelación de creencias

Al aplicar esta arquitectura experimental al estudio de la desigualdad, la inmigración y la movilidad intergeneracional, su literatura ha logrado cuantificar asimetrías severas entre la realidad objetiva y las creencias de los agentes. Por ejemplo, mediante encuestas experimentales a gran escala, Stantcheva y sus coautores han demostrado empíricamente cómo las percepciones erróneas sobre diferentes grupos raciales y demográficos alteran las preferencias económicas: los ciudadanos de países occidentales sobreestiman sistemáticamente el tamaño de la población inmigrante (percibiendo a menudo que representan más del 25% de la población, cuando la cifra demográfica real suele promediar el 10%) y exageran su dependencia del estado de bienestar. Metodológicamente, estos experimentos prueban de forma causal que el simple hecho de aumentar la prominencia (salience) de minorías raciales o inmigrantes en el diseño de la encuesta reduce de manera significativa el apoyo general a las políticas de redistribución de la riqueza.[36][37] Recientemente, esta frontera de investigación ha expandido el diseño de encuestas incorporando algoritmos de procesamiento de lenguaje natural (NLP) sobre preguntas abiertas, lo que permite a la econometría extraer y parametrizar las preocupaciones de primer orden de los individuos sin imponer las restricciones teóricas previas del investigador.[38]

Un eje fundamental en esta línea de investigación empírica es la parametrización del «pensamiento de suma cero» (zero-sum thinking). Sahil Chinoy, Nathan Nunn, Sandra Sequeira y Stefanie Stantcheva (2024) han integrado este constructo en los experimentos de encuesta para demostrar cómo la percepción de la economía como un juego de suma cero —la creencia de que la ganancia de un individuo necesariamente exige la pérdida de otro— actúa como una heurística cognitiva determinante en la polarización política de Estados Unidos. Metodológicamente, las encuestas revelan que los agentes que perciben el éxito económico como producto de la extracción de rentas, en lugar de la creación neta de valor (suma positiva), exhiben una demanda sistemáticamente mayor por la redistribución de la riqueza, la progresividad fiscal y la intervención estatal. Además, el diseño retrospectivo de estas encuestas ha permitido identificar empíricamente que este marco mental está fuertemente endogeneizado por la historia económica del individuo, correlacionándose de manera robusta con la exposición a una menor movilidad intergeneracional de ingresos en su entorno formativo.[39]

Experimentos de encuesta en macroeconomía

En la literatura reciente sobre experimentos de encuesta, destacan obras fundamentales para la metodología macroeconómica. Bachmann, Topa y Van der Klaauw editaron el Handbook of Economic Expectations (2022), el cual aborda los aspectos metodológicos del diseño de encuestas. Por su parte, Clements (2019) ofrece un análisis sobre el tratamiento econométrico de estos datos en Macroeconomic Survey Expectations. Asimismo, trabajos como los de Coibion y Gorodnichenko han sido claves para integrar la causalidad en el estudio de las expectativas macroeconómicas mediante encuestas.[40][41][42]

Corrección de problemas

En la intersección entre el diseño de encuestas poblacionales y la inferencia causal, la econometría ha formalizado métodos analíticos para corregir los desequilibrios de covariables en muestras finitas, una fricción que ocurre tanto en la fase de muestreo como en la de asignación de tratamientos. Pengfei Tian, Jiyang Ren y Yingying Ma (2026) desarrollan una teoría asintótica basada en el diseño (design-based inference) para optimizar estos experimentos mediante la implementación conjunta de un muestreo de rechazo estratificado y algoritmos de realeatorización (Stratified Rejective Sampling and Rerandomization, SRSRR). Superando las limitaciones de la aleatorización simple —la cual solo garantiza el equilibrio en valor esperado—, este marco restringe el espacio de muestras y asignaciones permitidas para forzar un equilibrio estricto en las covariables observadas. Analíticamente, los autores demuestran que bajo esta arquitectura, el estimador estratificado de diferencias en medias es consistente y su distribución límite abandona la normalidad estándar para converger hacia una convolución de una distribución normal y dos distribuciones normales truncadas. Esta topología asintótica concentra el estimador de manera mucho más estricta alrededor del verdadero efecto promedio del tratamiento (ATE), garantizando mejoras sustanciales en la eficiencia estadística que pueden ser perfeccionadas aún más mediante el ajuste de covariables en la fase de análisis ex-post.[43]

Temas de economía experimental

Juegos de coordinación

Los juegos de coordinación son los juegos de estrategia pura con múltiples equilibrios de Nash.

Hay dos conjuntos generales de preguntas que los economistas experimentales suelen hacer con este tipo de juegos:

  1. ¿Pueden los sujetos de laboratorio coordinar, o aprender a coordinar, en una situación de múltiples equilibrios, y si es así hay principios generales que pueden ayudar a predecir con que probabilidad un equilibrio va a ser elegido?
  2. Pueden los sujetos de laboratorio coordinar, o aprender a coordinar, en el mejor equilibrio Pareto y si no, ¿hay condiciones o mecanismos para hacerlo?

Experimentos de aprendizaje

En los juegos de dos jugadores o más, los sujetos suelen formar creencias acerca de las acciones que los otros jugadores están tomando y estas creencias se actualizan con el tiempo. Esto se conoce como aprendizaje. Los sujetos también tienden a tomar las mismas decisiones que los han recompensado con grandes rendimientos en el pasado. Esto se conoce como aprendizaje por refuerzo.

Hasta la década de 1990, los modelos adaptativos simples, tales como la competencia Cournot o juego ficticio se utilizan generalmente,. A mediados de la década de 1990, Alvin E. Roth y Ido Erev demostraron que el aprendizaje por refuerzo puede hacer predicciones útiles en juegos experimentales. En 1999, Colin Camerer y Teck Ho introdujeron Experiencia atracción ponderada (EWA), un modelo general que incorpora refuerzo y aprendizaje de las creencias, y muestra que el juego ficticio es matemáticamente equivalente al refuerzo generalizado, los pesos proporcionados son colocados en la historia pasada.

Las críticas a la EWA incluyen overfitting debido a muchos parámetros, la falta de generalidad sobre los juegos y la posibilidad de que la interpretación de los parámetros EWA puede ser difícil. Overfitting se aborda mediante la estimación de parámetros en algunos de los períodos experimentales o sujetos experimentales y la predicción del comportamiento de la muestra restante (si los modelos están sobreajuste, estas previsiones de validación fuera de la muestra será mucho menos preciso que encaja dentro de la muestra, que por lo general no lo son). La generalidad en los juegos se aborda mediante la sustitución de parámetros fijos con funciones de "auto-tuning" de la experiencia, lo que permite pseudo-parámetros que cambian en el transcurso de un partido y para variar también de manera sistemática a través de juegos.

Diseño experimental

Diseño experimental y fundamentos axiomáticos de la inferencia

En la frontera reciente de la economía experimental, la literatura ha experimentado un giro metateórico al aplicar la teoría de la decisión al propio proceso cognitivo y metodológico del investigador. Payró y Piermont (2025) proveen una microfundamentación rigurosa de esta práctica al desarrollar una teoría normativa del diseño experimental. Mediante un teorema de representación, establecen los axiomas bajo los cuales un experimentador racional evalúa y selecciona entre distintas estructuras de información. Bajo este marco, el diseño óptimo emerge como la solución a un problema de maximización del Valor de Identificación Esperado (Expected Identification Value), proporcionando un criterio formal para discriminar modelos rivales y garantizar la solidez de la arquitectura empírica.[44] No obstante, este paradigma de identificación pura no está exento de fricciones en la práctica. Rommeswinkel (2025) amplía este horizonte al caracterizar axiomáticamente una desviación del criterio de Payró-Piermont basada en la preferencia por la verificabilidad empírica. Su trabajo demuestra que un diseñador racional puede sacrificar valor de identificación marginal si una estructura experimental alternativa ofrece una ventaja comparativa en la viabilidad o el costo de su verificación ex-post, integrando así las restricciones epistemológicas del investigador al modelo formal.[45]

Optimización estadística y diseño Bayesiano empírico

Zhiheng You (2026) desarrolla un marco basado en Bayes empírico para el diseño de experimentos, integrando directamente las estimaciones de estudios previos afines en un modelo de decisión estadística. Este enfoque mitiga las ineficiencias de los procedimientos empíricos estándar, los cuales asumen ignorancia paramétrica inicial y tratan el diseño de cada recolección de datos de manera aislada. You demuestra cómo esta endogeneización de la literatura previa para formar distribuciones a priori informativas permite seleccionar arquitecturas experimentales más precisas. Analíticamente, el autor prueba que su diseño empírico-bayesiano converge asintóticamente hacia el rendimiento del oráculo —la asignación ideal que se elegiría si el investigador ya conociera con certeza los verdaderos parámetros poblacionales—. Al caracterizar matemáticamente la tasa a la que desaparece el arrepentimiento minimax (minimax regret) conforme crece la disponibilidad de estudios previos, esta metodología conecta el metaanálisis con el diseño experimental, proveyendo herramientas directas para optimizar la aleatorización estratificada y los diseños basados en puntajes de propensión (propensity scores) en la práctica econométrica.[46]

Diseño adaptativo e inferencia algorítmica

El diseño experimental adaptativo relaja la restricción de asignaciones estáticas al actualizar las probabilidades de tratamiento durante la ejecución del estudio para maximizar el bienestar esperado. Desde la teoría de la decisión, Masahiro Kato (2025) demuestra analíticamente que un procedimiento dinámico en dos fases, basado en una asignación de Neyman por etapas, alcanza la optimalidad exacta tanto de Bayes como minimax respecto al arrepentimiento (regret). Utilizando argumentos de cambio de medida y límites de grandes desviaciones (large deviation bounds), Kato deriva las cotas inferiores y superiores del arrepentimiento, proveyendo una justificación matemática estricta para el diseño dinámico de elección de tratamientos.[47]

En entornos de mayor dimensionalidad, la integración del aprendizaje automático en este tipo de diseños ha requerido de arquitecturas matemáticas rigurosas para resolver el colapso de la inferencia estadística. En algoritmos como los bandidos contextuales (contextual bandits), los estimadores frecuentistas estándar pierden su normalidad asintótica debido a la dependencia secuencial de las observaciones. Para restaurar la validez de la inferencia causal ex-post, la literatura econométrica ha formalizado el aprendizaje de políticas con datos recolectados adaptativamente, derivando funciones de ponderación de probabilidad inversa que corrigen sistemáticamente el sesgo de selección secuencial y garantizan intervalos de confianza asintóticamente válidos.[48][49] Esta fundamentación permite la personalización algorítmica sin sacrificar las propiedades estadísticas del diseño.

Taxonomía de campo, validez externa y el problema de escalabilidad

La madurez de la economía experimental exigió superar las fricciones estructurales inherentes a los entornos de laboratorio estándar, donde la selección endógena de los sujetos, el efecto de escrutinio (Hawthorne effect) y la artificialidad del contexto distorsionan la identificación paramétrica del comportamiento. Glenn W. Harrison y John A. List (2004) sentaron las bases metodológicas para mitigar este problema al formalizar una taxonomía empírica continua. Este marco analítico clasifica el diseño experimental en un espectro que transiciona desde el laboratorio puro hacia los experimentos de campo artefactuales, enmarcados y naturales (artefactual, framed, and natural field experiments). Esta arquitectura permite a los investigadores empíricos relajar el supuesto de homogeneidad poblacional y aislar matemáticamente el peso del contexto institucional en la toma de decisiones.[50]

Desde la perspectiva de la teoría de la elección, la literatura avanzó en modelar rigurosamente los límites de esta extrapolación empírica. Steven D. Levitt y John A. List (2007) desarrollaron un marco analítico demostrando que las preferencias sociales reveladas en aislamiento empírico (como el altruismo o la aversión a la inequidad) no constituyen parámetros estructurales profundos e invariantes. Por el contrario, operan como respuestas óptimas condicionadas por las restricciones del entorno, el grado de anonimato y la selección direccional hacia los mercados. Bajo este paradigma, el diseño de mecanismos experimentales debe incorporar explícitamente el nivel de experiencia de los agentes, reconociendo que las anomalías conductuales observadas in vitro tienden a disiparse a medida que los sujetos interactúan con instituciones competitivas y equilibrios de mercado naturales.[51]

La culminación metodológica de la validez externa en el diseño experimental es el desafío de la generalización macroadaptativa, formalizado en la literatura como el problema de escalabilidad (Scale-Up Effect). Incluso si un experimento de campo piloto logra identificar efectos causales locales robustos y estadísticamente significativos, la inferencia sobre la viabilidad de la política suele colapsar al implementarse a nivel poblacional. La econometría moderna modela este fenómeno no como una simple falla de implementación logística, sino como un problema de diseño endógeno derivado de la selección adversa de los sitios experimentales, los efectos de equilibrio general de los mercados y los rendimientos marginales decrecientes de los insumos. Para mitigar este sesgo de sobreestimación, los marcos de diseño actuales exigen endogeneizar las restricciones de escala dentro de la propia arquitectura de la aleatorización original, obligando al investigador a generar estimaciones que incorporen ex-ante los costos marginales de implementación y las fricciones de equilibrio antes de extrapolar los resultados a la política pública.[52]

Validez externa y selección de sitios mediante transporte óptimo

En el ámbito de los experimentos de campo, la economía empírica enfrenta el reto de la validez externa cuando existe un cambio de distribución (distribution shift) entre la muestra experimental local y la población objetivo general. Adam Bouyamourn (2025) aborda este límite metodológico formalizando la selección de sitios como un problema de transporte óptimo. Desarrolla un marco de Optimización Robusta Distribucionalmente (DRO) que selecciona las ubicaciones minimizando la distancia de Wasserstein entre las covariables poblacionales y muestrales. Esta arquitectura analítica proporciona cotas superiores teóricas para los errores de estimación de los efectos de tratamiento (PATE y CATE), ofreciendo un criterio de robustez matemática frente a perturbaciones en la información de las covariables antes de la recolección de los datos empíricos.[53]

Optimización temporal: Índices sustitutos e implementaciones escalonadas

Más allá de la asignación estática transversal, el diseño de experimentos a gran escala impone fricciones operativas asociadas a la capacidad logística y a los horizontes temporales prolongados que requieren modelado econométrico formal. Frente a la pérdida de eficiencia y relevancia que implica esperar la maduración de resultados lejanos en el tiempo, se ha desarrollado el marco analítico del «índice sustituto» (surrogate index). Esta metodología establece las condiciones exactas de identificación estadística bajo las cuales un vector de variables proxy de corto plazo puede combinarse para estimar efectos de tratamiento a largo plazo con alta precisión.[54] Paralelamente, ante la restricción empírica que impide ejecutar aleatorizaciones simultáneas completas en intervenciones de campo, la teoría ha caracterizado el diseño experimental óptimo para implementaciones escalonadas (staggered rollouts). Este enfoque aborda la asignación secuencial de unidades de observación como un problema estricto de optimización, minimizando matemáticamente la varianza del estimador del efecto del tratamiento sujeto a restricciones de capacidad institucional.[55]

Medición de variables ocultas

Las variables ocultas de un experimento pueden ser obtenidos mediante relaciones teóricas subyacentes:

  • Aversión al Riesgo (Loterías VNM) → Preferencias sobre resultados inciertos.[56]
  • Causalidad Subjetiva (Halpern) → Creencias sobre cómo funciona el mundo.[57]
  • Preferencias Sociales (Fehr-Schmidt) → Preferencias sobre los resultados de otros.[58]
  • Preferencias Temporales (Samuelson) → Preferencias sobre cuándo ocurren los resultados.[59]
  • Aversión a la Ambigüedad (Ellsberg) → Preferencias sobre probabilidades desconocidas.[60][61]
  • Aversión a las Pérdidas (Coeficiente Lambda, Kahneman & Tversky) → Teoría de las Perspectivas (Prospect Theory).
  • Razonamiento Estratégico (Nivel-k) → Modelos de Nivel-k (Level-k Thinking)[62][63]
  • Preferencia por la Honestidad (Coste Intrínseco de Mentir, Fischbacher and Föllmi-Heusi) → Modelos de Engaño y Tareas de Lanzamiento de Dado.[64]
  • Cooperación Condicional (Fischbacher, Gächter and Fehr) → Juegos de Bien Público (con Método de Estrategia).[65]
  • Reciprocidad Basada en Intenciones (Rabin) → Teoría de Juegos Psicológicos (Modelos de Rabin).[66]
  • Esfuerzo Cognitivo / Racionalidad Limitada → Test de Reflexión Cognitiva (Cognitive Reflection Test - CRT).[67]
  • Confianza (Trust) y Reciprocidad Positiva (Trustworthiness) → Juego de la Inversión (o Juego de la Confianza).
  • Sesgo de Presente (Preferencia por el "Ahora") → Modelo de Descuento Hiperbólico (o beta / delta).
  • Evitación de Información (Ignorancia Deliberada) → Paradigmas de Elección de Información / "Moral Wiggle Room".
  • Fuerza de la Norma Social (Apropiado vs. Inapropiado) → Tareas de Elicitación de Normas (Norm Elicitation Task).
  • Identidad Social (Favoritismo Endogrupal) → Paradigma de Grupo Mínimo (Minimal Group Paradigm) + Juegos Económicos.
  • Racionalidad en la Actualización de Creencias (Bayes vs. Conservadurismo) → Tareas de Bolas y Urnas (Ball and Urn Tasks) / Heurística de Representatividad.
  • Efecto Dotación (Brecha WTA-WTP) → Experimentos de Intercambio de Tazas / Loterías (Mug Experiments)
  • Preferencia por la Justicia Procesal → Juegos de Ultimátum con Loterías / Elección de Procedimientos
  • Maldición del Ganador (Fallo en Condicionar la Información) → Subastas de Valor Común (Common Value Auctions)
  • Deseo de Castigar (Para reforzar la norma) → Juego de Bien Público con Etapa de Castigo
  • Dependencia del Marco (Vidas Salvadas vs. Vidas Perdidas) → El Problema de la Enfermedad Asiática (Asian Disease Problem)
  • Preferencia por la Opción "No Hacer Nada" → Elecciones con una Opción de Statu quo / Defecto
  • Preferencia por Competir → Tareas de Elección de Torneo vs. Pago por Pieza
  • Desplazamiento de la Motivación Intrínseca → El Efecto "Una Multa es un Precio" (A Fine Is a Price)
  • Utilidad de la Identidad (Coste de Violar la Identidad Propia) → Economía de la Identidad (Identity Economics)
  • Habilidad para Identificar Puntos Focales → Juegos de Coordinación Puros (Juegos de "Hi-Lo" o "Punto de Encuentro")
  • Tendencia a Seguir al Rebaño (Cascadas de Información) → Experimentos de Cascada de Información (Secuenciales)
  • Relación Salario-Esfuerzo (Reciprocidad Positiva) → Juego de Intercambio de Regalos (Gift-Exchange Game).
  • Altruismo Puro → Juego del Dictador (Dictator Game)
  • Efecto de Observabilidad (Imagen Social) → Juego del Dictador con Pistas de Observación (Ej. "Watching Eyes")
  • Aversión a la Traición (Riesgo Social vs. Riesgo Natural) → Tareas de Confianza vs. Riesgo (Betrayal Aversion Task)
  • Utilidad por el Acto de Dar (Warm-Glow Giving) → Juego de Bien Público con "Impacto" vs. "Sin Impacto" / Modelo de Altruismo Impuro
  • Interpretación Egoísta de la Justicia → Juegos de Negociación (Bargaining Games) con roles asignados al azar
  • Error en la Predicción de la Utilidad Futura → Estudios de "Brecha de Empatía Frío-Caliente" (Hot-Cold Empathy Gaps)
  • Susceptibilidad al Anclaje → Tareas de Anclaje y Ajuste (Ej. Rueda de la Fortuna)
  • Respuesta del Esfuerzo a los Incentivos (Acción Oculta) → Juegos Principal-Agente (Principal-Agent Games)
  • Aversión a Decepcionar Expectativas (Cumplimiento de Promesas) → Juegos de Confianza con Comunicación (Trust Games with Promises)
  • Aversión a la Inequidad (Rechazo de Ofertas) → Juego del Ultimátum (Ultimatum Game)
  • Sobreestimación de la Habilidad Relativa → Tareas de Calibración / Comparación Relativa
  • Juicio Basado en Estereotipos → El Problema de Linda (The Linda Problem)
  • Aversión a la Incertidumbre (Preferencia por el Riesgo Conocido) → La Paradoja de Ellsberg (Ellsberg Urn)
  • Costo Moral de Engañar (Aversión a la Mentira) → Juego del Emisor-Receptor (Sender-Receiver Deception Game)
  • Tendencia a la Conformidad Grupal → El Paradigma de Asch / Tareas de Esfuerzo con Observación de Pares
  • Juicio Basado en la Facilidad de Recuerdo → Tareas de Estimación de Frecuencia (Ej. Frecuencia de letras)
  • Tratamiento No Fungible del Dinero → Tareas de Elección de Consumidor y Presupuesto
  • Convergencia al Equilibrio Competitivo → Subasta Doble Oral Continua (Continuous Double Oral Auction)
  • Fracaso del Mercado por Información Oculta → Experimentos del Mercado de "Limones" (Akerlof's Market for Lemons)
  • Confusión entre Valores Nominales y Reales → Tareas de Elección y Contratos en Entornos Inflacionarios
  • Negligencia de la Información de Otros (Negligencia de la Selección) → Juegos de Intercambio de Objetos (Ej. "Wallet Game")

Reproducibilidad y replicabilidad

Referencias

Bibliografía extra

Related Articles

Wikiwand AI