UNIVERSIDAD DE LA LAGUNA - RIULL Principal

339
Autor: Torres González, Obdulia Director: Amparo Gómez Rodríguez UNIVERSIDAD DE LA LAGUNA El problema de las reglas de elección social en la teoría de la acción colectiva. Retribución, justicia y bienestar Departamento de Historia y Filosofía de la Ciencia, la Educación y el Lenguaje

Transcript of UNIVERSIDAD DE LA LAGUNA - RIULL Principal

Autor: Torres González, Obdulia

Director: Amparo Gómez Rodríguez

UNIVERSIDAD DE LA LAGUNA

El problema de las reglas de elección socialen la teoría de la acción colectiva.Retribución, justicia y bienestar

Departamento de Historia y Filosofía de la Ciencia,la Educación y el Lenguaje

ÍNDICE

INTRODUCCIÓN

La Inocencia Epistémica de las Teorías .................................................................... 10

PRIMERA PARTE

Las Teorías

CAPÍTULO I

La Teoría del Comportamiento del Consumidor .................................................... 22

1. Introducción ................................................................................................................ 22

2. El enfoque de las curvas de indiferencia ................................................................... 26

2.1. La ordenación de preferencias ............................................................................. 26

2.2. La restricción presupuestaria y la elección del consumidor .............................. 35

3. El enfoque de la utilidad marginal ............................................................................. 39

3.1. Digresión en torno a la mensurabilidad de la utilidad ....................................... 46

3.2. La maximización de la utilidad ........................................................................... 48

3.3. La forma de la función de utilidad ...................................................................... 50

4. Una formulación alternativa: la teoría de la preferencia revelada ........................... 52

5. La incertidumbre ........................................................................................................ 56

5.1. La moderna teoría de la utilidad .......................................................................... 63

5.2. La forma de la función de utilidad esperada ...................................................... 66

5.2.1. Actitudes hacia el riesgo ............................................................................. 66

6. La interacción con los otros: el nacimiento de la Teoría de Juegos ........................ 70

6.1. Representación de los juegos .............................................................................. 72

6.2. Juegos bipersonales de suma cero ....................................................................... 73

6.3. Minimax y maximín ............................................................................................. 75

6.4. Estrategias mixtas ................................................................................................. 78

6.5. Pagos asegurados con estrategias mixtas ............................................................ 80

CAPÍTULO II

La Teoría de la Elección Social ................................................................................... 85

1. Introducción ................................................................................................................ 85

2. Un breve recorrido histórico ...................................................................................... 88

2.1. La Economía del Bienestar .................................................................................. 88

2.2. Las funciones utilitaristas clásicas ...................................................................... 90

2.3. El óptimo de Pareto ............................................................................................ 102

2.4. Las funciones de bienestar individualistas ....................................................... 106

3. El planteamiento ordinalista de Arrow ................................................................... 108

3.1. Paradojas ............................................................................................................. 109

3.2. El Teorema General de Imposibilidad .............................................................. 111

3.2.1. La paradoja de la votación ....................................................................... 115

3.2.2. Probabilidad de aparición de ciclos ......................................................... 118

3.2.3. Manipulación y agenda ............................................................................. 119

3.2.4. Formación de coaliciones, intercambio de votos y mayorías cíclicas ... 123

4. Vías de escape al Teorema de Imposibilidad de Arrow ......................................... 130

4.1. Restricciones a las ordenaciones de preferencia .............................................. 131

5. Líneas actuales de investigación ............................................................................. 140

5.1. El enfoque normativo: J. Harsanyi .................................................................... 141

5.2. La comparabilidad parcial: A. K. Sen ............................................................... 148

5.3. Compromisos y comportamiento estratégico: La Escuela de Virginia ........... 155

6. Algunas cuestiones abiertas ..................................................................................... 164

SEGUNDA PARTE

La Filosofía

CAPÍTULO III

El Análisis de los Fundamentos ................................................................................ 173

1. Introducción .............................................................................................................. 173

2. Supongamos que tenemos un abrelatas ................................................................... 176

3. El irrealismo de los supuestos: M. Friedman ......................................................... 180

3.1. Entre la descripción parcial y la idealización ................................................... 183

3.2. La clase de fenómenos que la hipótesis trata de explicar ................................ 186

3.3. La predicción ...................................................................................................... 192

3.4. La confirmación de la hipótesis ........................................................................ 194

4. La lógica de la situación ........................................................................................... 200

5. Núcleos y heurísticas ................................................................................................ 205

6. La economía como una ciencia inexacta y autónoma: volviendo a J. S. Mill ...... 212

CAPÍTULO IV

Aproximación Metateórica ........................................................................................ 224

1. Introducción .............................................................................................................. 224

2. Las teorías como clases de modelos ........................................................................ 226

3. Reconstrucción de la teoría del comportamiento del consumidor ........................ 233

3.1. Los modelos potenciales .................................................................................... 238

3.2. Los modelos potenciales parciales .................................................................... 239

3.3. Los modelos efectivos ....................................................................................... 247

3.4. Las leyes de la teoría del comportamiento del consumidor ............................ 250

3.5. Condiciones de ligadura ..................................................................................... 254

3.6. Aplicaciones intencionales ................................................................................ 255

4. Relaciones interteóricas: la especialización ............................................................ 258

4.1. Mpp (TES) = Mpp (TCC) .................................................................................. 262

4.2. Mp (TES) = Mp (TCC) ...................................................................................... 264

4.3. M (TES) ⊆ M (TCC) ......................................................................................... 267

4.4. GC (TES) ⊆ GC (TCC) ..................................................................................... 272

4.5. I (TES) ⊆ I (TCC) .............................................................................................. 273

5. El status teórico de la teoría de la elección social .................................................. 274

CAPÍTULO V

A modo de conclusión: el mundo escapa de nuestras redes ................................. 279

1. Introducción .............................................................................................................. 279

2. El contenido empírico de las teorías ........................................................................ 281

3. Vínculos interteóricos: teorización .......................................................................... 282

3.1. Problemática general de la teoría de la utilidad esperada ................................ 286

3.1.1. Los axiomas fundamentales de utilidad esperada ................................... 286

3.1.2. Los modelos de la teoría de la utilidad esperada .................................... 295

4. Condición de ligadura: la constancia de la función de utilidad ............................. 297

5. La identificación de las aplicaciones intencionales ................................................ 300

6. Conclusión ................................................................................................................ 302

ADDENDA

La filosofía de la ciencia como guía práctica .......................................................... 312

BIBLIOGRAFÍA ........................................................................................................ 325

Índice de Figuras ........................................................................................................... 341

Índice de Tablas ............................................................................................................ 342

INTRODUCCIÓN

INTRODUCCIÓN

10

Introducción.

La ‘inocencia’ epistémica de las teorías.

La génesis de este trabajo se sitúa en la teoría de la elección social. Esta teoría tiene como

objetivo dar cuenta de las elecciones humanas en el ámbito de lo público y actúa como

fundamento de las decisiones colectivas que se toman en el marco de lo social. Al abordar su

estudio llama la atención el esfuerzo denodado de los teóricos por ‘positivizar’ un área de estudio

que tradicionalmente se había considerado normativa, dado que remite, en última instancia, a

nuestros principios de justicia acerca de la organización social, a nuestras concepciones acerca

de cómo y bajo qué normas ha de ser redistribuida la riqueza. Remite por tanto, a la política y a

la ética, a nuestra forma de organizar la sociedad y a los principios que rigen dicha organización.

La ‘positivización’ de esta área de estudio se produce mediante la introducción del

método y los instrumentos analíticos de la Teoría Económica. El supuesto fundamental es que

los individuos que participan en los procesos de elección colectiva son los mismos que actúan

en el mercado y, sobre todo, bajo las mismas motivaciones. Esto supone la introducción del

homo economicus en el campo de la elección social e implica considerar a los actores sociales

INTRODUCCIÓN

11

como seres egoístas, racionales que intentan maximizar su satisfacción entendida como riqueza

neta. Bajo esta concepción se eliminan de un plumazo, en el diseño de los agentes, las

consideraciones éticas y políticas, las normas y valores de los individuos en el proceso de toma

de decisiones colectivo.

Nuestro primer acercamiento a la teoría de la elección social estuvo motivado por la

intuición de que esta teoría, elegante y formalmente expuesta, presenta características especiales

que vienen determinadas por el hecho de que las explicaciones que proporciona actúan como

fundamento en las decisiones de política pública y en el diseño de nuestras instituciones, es decir,

presenta una dimensión claramente aplicativa. Por tanto, en su trasfondo operan asunciones de

naturaleza ético política y sus objetivos están asociados a valores políticos y éticos determinados.

Su aparente inocencia epistémica vela asunciones y tomas de partido que operan en el seno de

la teoría.

Esta intuición nos condujo a plantearnos la siguiente pregunta: cuál es la naturaleza de

esta teoría social y cómo ha de ser considerado el tipo de conocimiento que ofrece. Este

interrogante se convierte en el hilo central que ha terminado vertebrando el trabajo realizado y

actúa de catalizador en lo que, de hecho, constituye la tesis básica de esta exposición: si la teoría

de la elección social es una teoría científica, explicativa y predictivamente adecuada, si da cuenta

de las elecciones sociales, tal y como éstas se producen, entonces, el diseño institucional

implicado por los supuestos teóricos es el adecuado para la sociedad en que vivimos, es el reflejo

de nuestras creencias y deseos acerca de lo que es un ‘buen’ orden social. En caso contrario la

modificación de la teoría viene impuesta no sólo por consideraciones epistémicas sino por las

consecuencias prácticas, éticas, políticas y sociales, que su uso plantea.

INTRODUCCIÓN

1 ARROW, K. J., Elección social y valores individuales. Madrid, Ed. Instituto de Estudios Fiscales, 1974a.

12

De esta tesis se deriva, en primer lugar, la necesidad de formular la teoría de la elección

social, establecer sus principales conceptos y principios, y examinar los problemas que plantea.

Esto nos mostró enseguida las estrechas relaciones que mantiene con el marco conceptual de la

cual es deudora, la economía neoclásica, y más concretamente la teoría del comportamiento del

consumidor. Lo cual nos llevó a dos preguntas: a) cuáles son las relaciones entre ambas teorías,

b) cuál es el rendimiento de la aplicación de los supuestos teóricos, conceptos y problemas en

su traslación del terreno de las elecciones en el mercado al ámbito de las elecciones sociales.

La respuesta a estos dos interrogantes refuerza la necesidad del análisis de la teoría de la

elección social, lo cual realizamos en el capítulo dos. En el recorrido realizado puede apreciarse

que los principios acerca de asignación y distribución de la riqueza, su último reducto normativo,

vienen determinados por el conjunto de supuestos conductuales establecidos en cada caso y que,

muchas veces, los principios evaluativos son eliminados porque entran en contradicción con el

modelo planteado acerca de las elecciones del agente. El núcleo de la teoría, constituido por la

obra de K. J. Arrow,1 y las líneas de investigación abiertas a raíz de ella vienen fundamentalmente

determinadas, igual que en el área económica, por este modelo de elección y por las posibilidades

de tratabilidad matemática de las propuestas.

En segundo lugar era condición necesaria la presentación de la parte de la teoría

económica que es objeto de exportación, esto es, la teoría del comportamiento del consumidor,

lo cual realizamos en el capítulo uno. Esta exposición era imprescindible dado que el conjunto

de supuestos conductuales que definen al actor económico y la elección racional, se encuentran,

en la mayoría de las ocasiones, implícitamente establecidos en la base de su tratamiento

INTRODUCCIÓN

13

matemático. Se trata de esclarecer cuáles son esos supuestos, si su postulado depende de

observaciones sustantivas acerca de la conducta de los electores o vienen determinados por su

tratabilidad matemática; y fundamentalmente, qué permite y qué no permite hacer la teoría. Es

decir, qué implicaciones pueden ser derivadas a raíz de ella y qué consideraciones pueden ser

introducidas en el modelo y cuáles no. Ello nos remite a cómo la construcción matemática del

modelo, por un lado, determina los supuestos conductuales admisibles y, por otro, elimina

aquellos que no son compatibles con sus herramientas conceptuales. Hemos invertido el orden

expositivo ya que decidimos comenzar exponiendo, en el capítulo uno, la teoría del

comportamiento del consumidor como teoría matriz y, posteriormente, en el capítulo dos y con

las herramientas necesarias, exponer la teoría de la elección social.

Este análisis nos permitió establecer, en el terreno sustantivo de la teoría, el calibre de la

exportación realizada de una teoría a otra. El análisis de ambas teorías muestra la complejidad

y envergadura de los problemas que el tratamiento economicista de la elección social planteaba,

las diversas respuestas que se ofrecen en la búsqueda de soluciones y las agrias diferencias que

se encuentran entre los teóricos de la elección social en el tratamiento de estas cuestiones. La

teoría de la elección social sigue apareciendo, después de Arrow, como una teoría interesante

pero plagada de problemas cuyas soluciones exceden el terreno de los axiomas y principios

teóricos, para adentrarse en el de las asunciones de fondo acerca de la elección, la racionalidad

y las características de los actores sociales.

De la investigación realizada deriva una hipótesis de trabajo que complementa nuestra

tesis inicial: que la exportación indiscriminada, es decir, sin ninguna consideración adicional, del

modelo de elección del agente económico al ámbito de las elecciones sociales no cumple las

INTRODUCCIÓN

14

expectativas para las que se había realizado esa exportación y, por tanto, los objetivos para los

que se formula la teoría de la elección social, ya que no da cuenta de cómo se producen las

elecciones sociales. Su capacidad explicativa y predictiva es muy limitada, debido

fundamentalmente a la escasa adecuación descriptiva del conjunto de supuestos que,

consideramos, definen la elección humana.

Esta situación nos llevó directamente al estudio epistémico y metodológico de ambas

teorías. Se trataba de analizar desde este terreno la naturaleza de los supuestos fundamentales y

principios teóricos de la teoría de la elección social, de sus generalizaciones, sus relaciones con

el mundo de los fenómenos y su articulación como teoría explicativa. Esto, de nuevo, nos

retrotrae al análisis de la teoría matriz de la cual en buena medida derivaba, es decir de la teoría

del comportamiento del consumidor.

Nos pareció que la Filosofía de la Ciencia (igual que para otras cuestiones la filosofía

política) podía hacer una aportación esencial a la clarificación de los problemas teóricos que tenía

planteados la teoría de la elección social. Esta es la segunda parte de nuestro trabajo.

En esta segunda parte se pretendió dar cuenta desde la filosofía de la ciencia, y más

concretamente desde la filosofía de la economía, de dos cuestiones fundamentales.

En primer lugar el status metodológico y epistémico de lo supuestos o principios teóricos

así como de los conceptos centrales de ambas teorías. El análisis de los supuestos permite

además establecer la relación entre la teoría y la realidad, su adecuación descriptiva y su

rendimiento para explicarla y predecirla.

En segundo lugar hay que dirimir las relaciones que se establecen entre ambas teorías,

básicamente a través del uso de conceptos comunes, así como la naturaleza de esa relación.

INTRODUCCIÓN

2 FRIEDMAN, M., Essays in Positive Economics. Chicago, Ed. Chicago University Press, 1953.

3 POPPER, K. R., «La Explicación en las Ciencias Sociales. (La racionalidad y el status del principio deracionalidad)». Revista de Occidente, 65, 1968, pp, 133-146 y La Miseria del Historicismo, Madrid, Ed.Alianza, 1987.

4 LAKATOS, I., «La Falsación y la Metodología de los Programas de Investigación Científica», en LAKATOS, I. yMUSGRAVE, A., (Eds.), La Crítica y el Desarrollo del Conocimiento. Barcelona, Ed. Grijalbo, 1975 y LaMetodología de los Programas de Investigación Científica. Madrid, Ed. Alianza Universidad, 1989.

15

En juego en todo este análisis está siempre presente la cuestión acerca del contenido

empírico de ambas teorías, es decir, la calidad de las relaciones con el mundo y por tanto su

capacidad para dar cuenta de las elecciones de los actores tanto en el contexto económico como

en el social.

De esta manera se dedicó el capítulo tres al análisis de los supuestos, especialmente de

su principio rector que afirma que los agentes son maximizadores de utilidad. En este contexto

aparece la discusión acerca del contenido empírico de los supuestos. Se expone este debate desde

sus primeras formulaciones y se analiza su evolución a través de la obra de M. Friedman2 de gran

influencia en filosofía de la economía y de las aportaciones de K. R. Popper3 e I. Lakatos.4

La idea de aplicar la propuesta lakatosiana a una reconstrucción de las teorías es

sumamente atractiva, ya que desde esta concepción la evaluación de las teorías no se realiza de

forma aislada, sino que se contemplan conjuntos o sucesiones de teorías, lo que resultaba

sumamente interesante para el análisis de las relaciones entre la teoría del comportamiento del

consumidor y la teoría de la elección social.

Al final de este recorrido nos encontramos con que el principio de maximización de la

utilidad es siempre mantenido como un principio ideal y en la mayoría de las ocasiones

considerado autoevidente. Si es el conjunto de supuestos conductuales lo que remite, en última

instancia, al dominio de fenómenos empíricos la cuestión es cómo articular estos dos hechos. Es

INTRODUCCIÓN

16

decir, como dotar de contenido empírico a una teoría cuyos principios fundamentales son

mantenidos como principios ideales, irreales y en algunas ocasiones falsos.

La necesidad de contar con una reconstrucción de la teoría, donde se especifique el

dominio de aplicaciones empíricas, y el hecho de que la teoría está regida por un principio, el de

maximización de la utilidad, más interesado en estructurar un determinado ámbito de fenómenos,

que en dar cuenta de hechos empíricos concretos, nos ha conducido a la concepción estructural.

Esta concepción nos permitía avanzar en la definición conceptual y teórica a la vez que

posibilitaba la clarificación de la relación establecida entre la teoría del comportamiento del

consumidor y la teoría de la elección social. Esta reconstrucción es llevada a cabo en el capítulo

cuatro y ha mostrado su rendimiento en cuestiones referidas a la vertebración y sistematización

de un amplio campo de problemas.

En primer lugar, la relación entre la teoría del comportamiento del consumidor y la teoría

de la elección social es postulada como una relación de especialización, donde ambas teorías

cumplen las mismas leyes fundamentales, pero la teoría de la elección social estrecha su dominio

de aplicaciones empíricas mediante el añadido de leyes especiales.

En segundo lugar, permite postular los distintos enfoques acerca de la utilidad como una

teoría independiente unida a la teoría del comportamiento del consumidor y a la teoría de la

elección social mediante una relación de teorización. En esta propuesta son las teorías de la

utilidad las encargadas de proporcionar la determinación del concepto de utilidad que es utilizado

tanto en el ámbito económico como en el social.

En tercer lugar, la noción estructuralista de jerarquización de teorías permite dar cuenta

de los distintos enfoques utilizados en la medición de la utilidad. Cada uno de ellos es postulado

INTRODUCCIÓN

5 MOULINES, C. U., Exploraciones Metacientíficas. Madrid, Ed. Alianza Universidad, 1982.

17

con un conjunto de supuestos más restrictivo que el anterior, lo cual implica un sucesivo

estrechamiento del dominio de fenómenos empíricos al que se aplica.

En cuarto lugar, ha permitido la identificación de la problemática respecto al contenido

empírico de la teoría del comportamiento del consumidor y por tanto de la teoría de la elección

social localizando esta problemática, por un lado, en las dificultades que se presentan a los

distintos enfoques para proporcionar una medida del término utilidad y por otro lado, en la

exigencia de postular que la función de utilidad individual se mantenga constante. Estos

problemas son identificados, respectivamente, como dificultades en el cumplimiento del vínculo

interteórico y de la condición de ligadura intermodélica.

Finalmente, ha permitido dar cuenta, en sintonía con las propuestas metodológicas

anteriormente examinadas, del principio de maximización de la utilidad como un principio guía,

en el sentido propuesto por U. Moulines,5 cuyo uso pretende más estructurar un marco

conceptual determinado que dar cuenta de fenómenos empíricos concretos.

Evaluada en estos términos es posible presentar formalmente una red teórica, donde las

distintas teorías aparecen interconectadas, cuando se da el cumplimiento de los vínculos

interteóricos, y donde la información relevante puede ser trasladada de un modelo a otro, cuando

se cumplen las condiciones de ligadura.

La consideración de la teoría de la elección social como una especialización, en términos

estructurales, de la teoría del comportamiento del consumidor permite dar cuenta de la

exportación del utillaje económico al campo de la elección social. Asimismo posibilita identificar

y localizar los problemas que aquejan a la teoría y que determinan su escaso contenido empírico

INTRODUCCIÓN

6 Tal vez el ejemplo más conspicuo de este triunfalismo lo constituya G. Becker. Ver BECKER, G., El enfoqueeconómico del comportamiento humano. Madrid, Ed. ICE, 1980.

18

y, por tanto, su evaluación en términos de rendimiento explicativo y predictivo. Dentro de la

reconstrucción estructural se localizan en el conjunto de teorías utilizadas para determinar la

utilidad individual y establecer la maximización de la misma. Esto es fundamentalmente lo que

determina que el dominio de aplicación de la teoría sea sumamente reducido.

En relación a nuestra tesis de partida podemos afirmar que el poder explicativo y

predictivo de la teoría no justifica el triunfalismo con el que los teóricos han exportado las

herramientas de la teoría económica al ámbito de las elecciones sociales.6 La capacidad de la

teoría para dar cuenta de las elecciones reales de los agentes es, en el mejor de los casos, dudosa.

En la mayoría de los casos no parece ser capaz de reflejar porqué los agentes eligen lo que eligen

y cómo se relacionan sus creencias y deseos acerca de lo que es un ‘buen’ orden social con las

elecciones que efectivamente realizan. Se imponen modificaciones teóricas importantes si la

teoría actúa como fundamento de nuestras decisiones de política pública y nuestro diseño

institucional, pues existen consecuencias indeseadas del uso de estos modelos en el ámbito de

los social. Es cierto que, de momento no disponemos de teorías mejores. Por ello, y a un nivel

más sustantivo, el trabajo concluye con el esbozo de una propuesta mediante la que se pretende,

precisamente, dotar de contenido empírico a la teoría mediante la precisión del concepto de

utilidad. Por un lado el principio fundamental de maximización ha de ser complementado con

leyes empíricas de bajo nivel allí donde se muestra que no es capaz de dar cuenta de las

elecciones reales de los agentes. Por otro lado, ha de darse una caracterización precisa de aquellas

situaciones donde la teoría muestra rendimientos.

En el nivel interno de la teoría pueden ser hechas algunas consideraciones que recogemos

INTRODUCCIÓN

19

en la addenda. La idea intuitiva es que no hay por qué eliminar los principios normativos cuando

se muestran inconsistentes con el modelo de actor, sino complementar ese modelo, por un lado,

como ya se señaló, mediante la investigación empírica y por otro, y fundamentalmente, a través

el estudio de los valores que funcionan como criterio en la selección de alternativas y que puede

ser la maximización de la utilidad, pero también puede ser la preocupación por el ‘otro’ y la idea

de una ‘buena’sociedad.

* * *

Muchas son las personas que a lo largo de estos años me han brindado su ayuda y sus

conocimientos, desde aquí, gracias a todos y cada uno de ellos, pero especialmente a mi directora

Amparo Gómez Rodríguez sin cuya paciencia y apoyo nada hubiera sido posible.

PRIMERA PARTE

LAS TEORÍAS

«... el hombre necesita casi constantemente la ayuda de sus hermanos,

pero sería inútil que la esperara sólo de su benevolencia ... No es de la benevolencia del carnicero,

del cervecero o del panadero de la que esperamos nuestro sustento,

sino de su preocupación por el propio interés. Nos dirigimos no a su humanitarismo,

sino a su egoísmo, y nunca le hablamos de nuestras necesidades,

sino de sus ventajas»A. Smith. La riqueza de las naciones.

CAPÍTULO I

7 A lo largo de este trabajo se utilizará, en muchas ocasiones los términos acción y elección como si fueransinónimos. Evidentemente no lo son, pero hay ocasiones en que su diferenciación no añade nada al discurso.Puede elegirse entre comer y no comer, éstas son dos acciones distintas, en este sentido se elige entre unaacción o la otra. Pero también puede elegirse entre comer peras o comer manzanas, en este caso la acción esla misma, comer, y sólo cambian los objetos de elección. No se niega que la diferencia sea importante enmuchos ámbitos, pero no en la mayoría de la presentación teórica que viene a continuación.

22

Capítulo I.

La teoría del comportamiento del consumidor.

1. INTRODUCCIÓN.

Tanto las elecciones sociales, como las políticas o las económicas remiten en última

instancia a la elección individual. Para poder teorizar sobre ellas sin remitirnos a una mera

enumeración descriptiva, dichas elecciones han de ajustarse a una serie de condiciones o

parámetros. Contamos, en Ciencias Sociales, con una teoría de la elección individual que sitúa

como parámetro fundamental la racionalidad de las elecciones individuales. Pero el término

racional sólo significa aquí que la acción7 elegida es el mejor medio para la consecución de un

fin dado y que las distintas elecciones realizadas por el agente son consistentes entre sí. Postular

la consistencia de el conjunto de elección significa que el individuo ordena las alternativas a su

disposición de más preferida a menos preferida, según sus deseos, y que esa ordenación es

reflexiva, transitiva y completa. Sin entrar en el significado más o menos técnico de estas

condiciones podemos decir que éstas, junto con la proposición que afirma que la gente elige lo

CAPÍTULO I

8 J. Elster puede ser considerado como uno de los principales exponentes de la teoría de la elección racional.De entre la multitud de títulos publicados al respecto conviene resaltar. Tuercas y tornillos, Una introduccióna los conceptos básicos de las ciencias sociales. Barcelona, Ed. Gedisa,1990b; Uvas amargas. Barcelona,Ed. Península, 1984; Domar la suerte. Barcelona, Ed. Paidós, 1988; Ulises y las sirenas. México, Ed, Fondode Cultura Económica, 1987 y Juicios salomónicos. Barcelona, Ed. Gedisa, 1991.

23

que prefiere, forma el paradigma de la elección racional. Han sido introducidos los deseos, las

elecciones y las restricciones los cuales, unidos a las creencias, forman los cuatro pilares básicos

de la teoría.

Por otro lado, las tres condiciones referidas a la ordenación de preferencias, junto a un

conjunto más amplio de restricciones, definen la elección económica individual o la teoría del

comportamiento del consumidor. Esta teoría vendría formada por el conjunto de restricciones

impuestas a las ordenaciones de preferencia, algunas condiciones adicionales, más la proposición

que afirma que el agente maximiza su utilidad.

Autores como J. Elster8 afirman que pasar de una ordenación de preferencias a una

función de utilidad, que es la que se maximiza, no es más que una treta matemática. Y en efecto

lo es si lo único que se pide es asignar números a las opciones de modo que las más preferidas

reciban números más altos en la ordenación de preferencias del agente. En este sentido, decir que

un agente elige lo que prefiere y decir que maximiza su utilidad son dos expresiones sinónimas.

Esta sinonimia ha sido el origen de todo un cúmulo de malos entendidos teóricos, dado que en

función de ella la teoría de la elección racional sería la misma teoría que la teoría del

comportamiento del consumidor.

Lo que pretende este capítulo es, precisamente, deshacer esos malos entendidos mediante

una exposición sistemática de la teoría del comportamiento del consumidor como una teoría

distinta y mucho más restrictiva que la teoría de la elección racional.

Entendida como una separación entre ambas teorías la definición establecida puede

parecer arbitraria, dado que muchos teóricos de la elección racional postulan funciones de

utilidad y maximización de la misma sujeta a restricciones. Pero normalmente no está claro la

utilización que realizan del concepto función de utilidad y las consecuencias teóricas que su

CAPÍTULO I

24

propio uso plantea. Lo que se quiere plantear aquí es que la teoría de la elección racional queda

englobada dentro de la teoría del comportamiento del consumidor y que ésta última añade

restricciones adicionales a la teorización de la elección individual. Este es el motivo fundamental

de la elección de la teoría del comportamiento del consumidor. La definición de elección racional

dada más arriba, que sólo exige preferencias reflexivas, transitivas y completas y que afirma que

los agentes eligen lo que prefieren es tan general que es casi imposible que las elecciones

observadas de los agentes no sean congruentes con ellas. La teoría del comportamiento del

consumidor permite estrechar la definición de elección individual racional y analizar como ésta

cambia con cambios en las variables del entorno. Evidentemente estas variables, dado que nos

hallamos en el seno de una teoría económica, son variables económicas, es decir, precios,

cantidades de mercancías y presupuestos. En principio no hay, según los teóricos, ninguna

dificultad en extrapolar estas variables a otros campos. Pero para poder juzgar la idoneidad de

esta exportación, lo cual será objeto de análisis en capítulos posteriores, ha de quedar claro el

significado de cada una de las variables en juego, así como sus relaciones de dependencia.

La confusión o la superposición entre la teoría de la elección racional y la teoría del

comportamiento del consumidor no es el único origen de malos entendidos teóricos en este

campo de estudio. Una segunda fuente de problemas es el hecho de contar con dos métodos o

dos enfoques dentro de la teoría del comportamiento del consumidor. Estos dos métodos son

el enfoque de las curvas de indiferencia y el enfoque basado en la utilidad marginal. Obviamente

los dos métodos han de llegar y llegan a los mismos resultados, el origen de los problemas radica

en que el primero se refiere a una utilidad sólo ordinalmente mensurable y el segundo a una

utilidad cardinal. En principio, la variación de una escala a otra no tiene mayor relevancia si no

se mezclan los dos métodos y si se comprende plenamente que es lo que los teóricos entienden

por utilidad medida cardinalmente. En capítulos posteriores postularemos cómo puede ser

entendida esta equivalencia.

Hay un tercer ámbito de dificultades asociadas a toda esta temática. Tanto en la teoría de

CAPÍTULO I

25

la elección racional, como en la teoría del comportamiento del consumidor, los agentes no eligen

la mejor opción disponible para la consecución de un fin dado, sino la que creen que es la mejor

opción. Todas las creencias basadas en hechos se cifran en probabilidades y son

matemáticamente representadas como una distribución de probabilidades sobre los estados

posibles del mundo en que se desarrolla la acción. La introducción de consecuencias inciertas de

las acciones de los agentes complica y modifica en cierto sentido la teoría. El individuo no sólo

maximiza su utilidad, sino su utilidad esperada.

Finalmente, un amplio campo para la controversia. ¿Cómo eligen los agentes la mejor

opción cuando los resultados a obtener son influidos no sólo por sus propias accones, sino por

las acciones del resto de los agentes?

Se trata de aclarar estos cuatro ámbitos de dificultades y creemos que el mejor camino

es una exposición sistemática de la teoría, tal y como esta es presentada en los manuales de

microeconomía al uso. Esto presenta el grave problema de que se carece del marco histórico de

la teoría. Por otro lado, es sumamente difícil establecer el marco temporal de la teoría del

comportamiento del consumidor, especialmente porque está a la base de multitud de teorías

económicas que no tienen la misma génesis y porque es fruto de las aportaciones teóricas de

distintos autores a través de un largo período de tiempo.

Evidentemente pertenece a la escuela neoclásica. Precisamente uno de los puntos de

fractura entre clásicos y neoclásicos es que los segundos establecen una teoría del valor basada

en la utilidad de los bienes, es por tanto, una teoría subjetiva cuyo punto de partida es el

comportamiento individual. A su vez, y siempre dentro de la tradición neoclásica, se concreta en

la escuela marginalista inaugurada en la década de 1870 por Jevons, Menger y Walras, quienes

introducen el concepto de utilidad marginal como medida del valor. De estos tres autores,

especialmente Jevons, se basa en los estudios de Bentham, que cronológicamente, pertenece a

la escuela clásica. Por otro lado, esta revolución marginalista no se impone hasta veinte años

después con la síntesis de Marshall y concluye en su formulación más acabada con el trabajo de

CAPÍTULO I

9 ECHEVERRÍA , J., Filosofía de la ciencia. Barcelona, Ed. Akal, 1995, p. 150.

10 En los tres apartados que se ven a continuación seguiremos básicamente a GREEN H. A. JOHN, La teoría delconsumidor. Madrid, Ed. Alianza Universidad, 1986, especialmente los capítulos 2, 3, 6 y 7. También son deobligada referencia ZAPATERO, J. C., Lecciones de microeconomía. Madrid, Ed. Nerea, 1987; BILAS, R., Teoríamicroeconómica. Madrid, Ed. Alianza, 1984; VARIAN, H. R., Microeconomía intermedia, Un enfoquemoderno. Barcelona, Ed. A. Bosch, 1993 y, especialmente, ARROW, K. J., 1974a, donde se aplica por primeravez la lógica de relaciones a la teoría económica.

26

K. J. Arrow y G. Debreu sobre la teoría del equilibrio general. En suma, la teoría ha ido

añadiendo y perdiendo componentes a lo largo de su evolución. La exposición que se presenta

en este capítulo se pretende sistemática, aunque no aluda, salvo de forma marginal, a las

paternidades de los conceptos. Por otro lado, dicha exposición, no se postula como la

formulación más acabada de la teoría en cuanto a novedades conceptuales o últimas líneas de

investigación, sino como aquel conjunto teórico que se transmite, a través del contexto de

educación. En este contexto la ciencia es, siguiendo a J. Echeverría, «enseñada como un

conocimiento verdadero, que hay que admitir y aprender obligatoriamente tal y como viene

presentado en los libros de texto».9 Por tanto en esta etapa del trabajo no se va a cuestionar la

validez de la teoría. Primero hemos de aprender a manejar sus instrumentos para poder,

posteriormente, ejercer cualquier actividad crítica.

2. EL ENFOQUE DE LAS CURVAS DE INDIFERENCIA.

2.1. LA ORDENACIÓN DE PREFERENCIAS.10

Dentro de la Economía Positiva, la teoría del comportamiento del consumidor es una

teoría sobre elecciones individuales en el mercado. Las elecciones vienen determinadas por los

gustos o los deseos de los individuos y son descritos mediante una ordenación de preferencias.

Preferir implica comparar. Declaramos nuestra preferencia por un objeto o persona sobre otro,

por tanto se establece una relación entre esos objetos determinada por la preferencia del agente.

La relación es binaria, es decir, comparamos uno a uno y no muchos a muchos, y como cualquier

relación entre miembros de un conjunto posee una serie de propiedades. Si esas propiedades se

cumplen podremos hacer afirmaciones sobre las elecciones individuales.

CAPÍTULO I

11 Las relaciones binarias que se establecen serían las siguientes:xRx’ se lee x es preferida o indiferente a x’; también puede ser leída x es al menos tan buena como x’.xPx’ se lee x es preferida a x’.xIx’ se lee x es indiferente a x’.

27

El conjunto de elección, es decir, los objetos que son susceptibles de preferencia por parte

de los agentes son, dentro de esta teoría, bienes, mercancías o artículos de consumo. Nos

referiremos a ellos como conjuntos o cestas de bienes, donde cada cesta posee distintas

cantidades de cada artículo o mercancía. Para poder comparar dos cestas de bienes, hemos de

decidir, previamente, cuál, de cada uno de los artículos, será considerado primero, segundo, etc.

Por ejemplo, la cesta de bienes x sería (x1, x2, x3, ..., xn) y la cesta de bienes x’ (x’1, x’2, x’3, ..., x’n),

pudiendo también expresarlo como x (4, 3, 7, ..., 1) donde cada uno de los valores representa las

cantidades de cada mercancía.

Se ha señalado más arriba que si se dan una serie de propiedades en la relación de

preferencias podremos explicar y predecir las elecciones de los sujetos. Estas propiedades vienen

definidas en forma de axiomas y caracterizan lo que sería una conducta racional por parte de los

agentes. De momento el adjetivo racional sólo implica que el agente ordena las alternativas a su

disposición según sus deseos, que dicha ordenación cumple unos requisitos mínimos de

consistencia y que, una vez ordenadas, elige aquella alternativa situada más alta en su

ordenamiento. Veamos los axiomas.

Axioma I: Completitividad (también definido como completud o conectividad). Para

todas las x, x’ de S (conjunto de elección) sucede que xRx’ o x’Rx o bien ambas.11 Esta primera

condición, de lo único que nos informa es que los manojos, o las cestas de bienes, han de ser

comparables entre sí, es decir, el consumidor ha de poder expresar preferencia por una u otra, o

bien declarar a ambas indiferentes.

Axioma II: Transitividad. Para todos los x, x’, x’’ en S si xRx’ y x’Rx’’ entonces xRx’’.

La transitividad es una condición fundamental en este ámbito, ya que, si un sujeto presentara

preferencias intransitivas, podría ser conducido rápidamente a la ruina económica. Es lo que se

CAPÍTULO I

12 Este argumento es planteado por Elster, en ELSTER, J., 1984, p. 45.

13 La propiedad de reflexividad es trivial en el contexto de las elecciones. Lo único que exige es xRx, es decir xes preferida o indiferente a sí misma.

28

conoce como el argumento del money pump12 o la ‘máquina de hacer dinero’. Si usted presenta

una ordenación de preferencias intransitiva, por ejemplo, prefiere a a b, b a c y c a a, estaría

dispuesto a pagar una pequeña cantidad de dinero para cambiar c por b, otra pequeña cantidad

de dinero para cambiar b por a, y una suma adicional para cambiar a por c, después de toda esta

serie de transacciones, usted tendrá lo mismo que al principio y un ‘gran agujero’ en el bolsillo.

Los axiomas I y II dan lugar a una ordenación de preferencias débil. A las relaciones

binarias estándar se les ha asignado nombres específicos, cualquier relación binaria que cumpla

las propiedades de reflexividad,13 transitividad y completitividad, como por ejemplo

comparaciones de longitud de dos objetos en la misma escala, recibe el nombre de ordenación

débil. En este caso débil dado que permite que dos objetos tengan la misma longitud, en el caso

de la relación de preferencias, débil ya que se permite la indiferencia entre dos alternativas. En

un orden fuerte el sujeto ha de preferir x a y o y a x, estando excluida la indiferencia.

Las alternativas a las que nos hemos venido refiriendo x, x’, x’’, etc, pertenecen al

conjunto S, al que hemos denominado conjunto de elección. Este es el conjunto de alternativas

entre las cuales hay que realizar una elección. Y como ya hemos dicho, los elementos o

miembros de ese conjunto son los distintos manojos o cestas de bienes. Podemos fragmentar S,

es decir, dividirlo exhaustivamente en subconjuntos separados, donde dos conjuntos son

separados si no tienen ningún elemento en común. En cada subconjunto agrupamos aquellas

alternativas que son indiferentes entre sí para el consumidor. Dichos subconjuntos reciben el

nombre de clases indiferentes. Dentro de cada clase de indiferencia las alternativas proporcionan

al consumidor la misma satisfacción, a su vez cada clase de indiferencia es ordenada en una

relación de preferencia en la forma establecida anteriormente.

CAPÍTULO I

14 Este requisito será formalizado en el axioma VI al postular curvas de indiferencia estrictamente convexas.

29

Axioma III: Elección racional. Si x resulta elegida entre un conjunto de alternativas S,

entonces, para todos los x’ en S, resulta que xRx’. Este axioma nos informa que si el consumidor

hace una elección, dentro del conjunto disponible, la alternativa elegida es la alternativa preferida,

es decir, si su elección entre a y b es a, esto significa que a es preferida a b. Aunque pueda

parecer una verdad de Perogrullo, supongamos que a es cualquier marca de ropa de deporte y

b es su marca preferida. Pero usted sabe que b utiliza mano de obra infantil para su manufactura,

en consecuencia, usted decide comprar a. ¿Refleja la elección su preferencia? No es momento

de responder aquí a esta pregunta pero sí para prevenir al lector acerca de lo que se esconde tras

el aséptico lenguaje de las variables.

Por otro lado, si sólo contáramos con estos tres axiomas, tendríamos que casi cualquier

elección es congruente con ellos, dado que si por ejemplo el individuo elige a sobre b, y

posteriormente b sobre a, es posible que sus elecciones sean inconsistentes, pero también es

posible que sea indiferente entre ambas alternativas. La transitividad y la completud son desde

luego cruciales, para explicar la conducta, como requisitos mínimos de consistencia, pero si

realmente queremos derivar hipótesis contrastables hemos de imponer restricciones adicionales

a la elección.

Puede ser definido ahora el conjunto de consumo C, a partir de un subconjunto S del

cual, determinado por su presupuesto y los precios de los bienes, el consumidor hará en cada

ocasión una elección. El conjunto de consumo consiste en todos los manojos o cestas de bienes

(x1, x2, ..., xn) en los que x1, x2, ...., xn, sean números reales no negativos, y que permitan al

consumidor sobrevivir, esto quiere decir, que no se definen ordenaciones de preferencias para

conjuntos que estén por debajo del nivel de supervivencia.14 No es que los consumidores que no

puedan adquirir una cantidad positiva de cada bien no tengan preferencias, sino que

sencillamente, si no pueden adquirirlos dejarían de existir o bien por inanición o bien por estar

expuestos a la intemperie. Tal y como Green afirma: «nuestra teoría nada tiene que decir sobre

CAPÍTULO I

15 GREEN, H. A. JOHN., 1986, p. 49.

30

X1 II I

A

IV III

O X2

lo que hará el consumidor si su presupuesto y los precios de los artículos no le permiten

sobrevivir».15

Axioma IV: No saturación. El supuesto que subyace al axioma cuatro de no saturación

es que los individuos prefieren tener más de cada bien a tener menos. Más arriba habíamos dicho

que cada cesta de bienes podía ser representada así (x1, x2, x3, ..., xn) o así (3, 2, 1, ..., 2).

Supongamos que esta última es la cesta x, y (2, 3, 1, ..., 2) es la cesta x’, y que las dos pertenecen

a la misma clase de indiferencia. Digamos que el primer artículo son huevos y el segundo panes,

pues bien, en este caso, el consumidor sería indiferente entre una cesta con tres huevos y dos

panes; y otra con tres panes y dos huevos, manteniéndose iguales el resto de las cantidades de

las distintas mercancías. Atendamos ahora a la gráfica (Figura I) y supongamos que x1 son panes

y x2 son huevos.

Figura I

Cualquier punto situado en el cuadrante I será preferido a A, ya que tiene más de los dos

bienes. Asimismo, A es preferido a cualquier punto situado en IV, ya que ahí hay menos de los

dos bienes. En los cuadrantes II y III hay más de un bien y menos de otro. Si el consumidor es

indiferente entre dos manojos de bienes, estos han de estar situados en esos cuadrantes. La curva

trazada, denominada curva de indiferencia, nos proporciona el lugar geométrico de todas las

posibles combinaciones de panes y huevos que son indiferentes para un consumidor dado,

CAPÍTULO I

16 Es decir, no podemos pasar bruscamente de puntos donde se prefiere x a puntos preferidos a x sin pasar porun punto indiferente a x.

31

manteniéndose el resto de las mercancías constantes

El axioma de no saturación quedaría formalmente expresado como sigue: para todos los

x, x’ en el conjunto de consumo C, si x≥ x’, es decir, x contien e por lo menos tanto de cada

artículo como x’ y más de por lo menos un artículo, entonces xPx’. De este axioma se deduce

que las curvas de indiferencia tienen inclinación descendente dado que para todos los x, x’ que

forman parte de C, si xIx’ entonces ni x≥x’ ni x’ ≥x, lo cual no quiere decir que sean idénticos,

sino que tienen distintas cantidades de distintos bienes.

Axioma V: Continuidad de las preferencias. La continuidad de las preferencias puede

ser expresada, de forma intuitiva diciendo que puede ser trazada la curva de indiferencia sin

levantar el lápiz del papel. Si en un eje de coordenadas trazamos líneas que confluyan en el

origen, siempre encontraremos un punto en esas líneas que sea indiferente a x. Eso sería el lugar

geométrico de las curvas de indiferencia,16 que es lo que se denomina conjunto fronterizo B(x).

El conjunto B(x) es el conjunto de todos los puntos que son indiferentes a x. Si es posible

compensar al sujeto de la pérdida de xa a xb con un aumento de x’a a x’b, entonces los puntos A

y B serán indiferentes, (figura II). Esta propiedad implica que las curvas de indiferencia son

continuas, es decir, que no hay salto en ellas.

Figura II

CAPÍTULO I

32

El axioma V quedaría expresado como sigue: para todos los x situados en el conjunto

fronterizo B(x), asociados a x, sucede que x’I x.

Axioma VI: Convexidad. Si atendemos a la gráfica (Figura III) vemos que, el intervalo

entre x0 y x1 es mayor que el intervalo entre x1 y x2. Esto quiere decir que los aumentos de x

necesarios para compensar la pérdida de una unidad de y se hacen mayores conforme tenemos

menos de y y más de x. Esto hace que la curva de indiferencia sea convexa.

Figura III

Por tanto, una curva de indiferencia convexa significa que, el consumidor estará dispuesto

a intercambiar una mayor cantidad de una mercancía, digamos x, a medida que tenga menos de

otra mercancía, verbigracia y, y más de x. Evidentemente, la convexidad de las curvas de

indiferencia tiene excepciones: una curva horizontal o una vertical, indican que el consumidor

está saturado de alguno de los dos productos; una curva de indiferencia en línea recta con

pendiente negativa, indican bienes perfectamente sustitutivos, o una en ángulo recto, indica que

las dos mercancías han de ser utilizadas en proporciones fijas, por ejemplo el zapato derecho y

el zapato izquierdo.

Por otro lado, este supuesto implica que las curvas de indiferencia nunca tocan los ejes,

es decir, que es necesaria una cantidad positiva de todas y cada una de las mercancías para la

supervivencia.

Expresado formalmente el axioma VI sería: para todos los x en C, el conjunto R(x),

compuesto de todos los x’ en C, en los que x’Rx, es estrictamente convexo.

CAPÍTULO I

33

Axioma VII: Curvas de indiferencia suaves. En este axioma hemos de introducir un nuevo

concepto, el de relación marginal de sustitución (en adelante RMS). Esta relación indica el

número de unidades de y a que el sujeto está dispuesto a renunciar para obtener una unidad

adicional de x, manteniéndose en la misma curva de indiferencia. Es decir, es el precio de y en

función de x.

Para entender la importancia de la relación marginal de sustitución como herramienta

conceptual hemos de hacer una breve digresión. Uno de los punto de ruptura más importantes

entre la escuela clásica y la neoclásica es la identificación, por parte de los últimos, entre precio

y valor. El valor pasa a ser una medida de la utilidad o satisfacción que los distintos bienes

proporcionan al consumidor. El precio es una magnitud relativa fruto de la comparación entre dos

mercancías y subjetiva ya que se establece en función de la satisfacción proporcionada por cada

bien. Es precisamente esta concepción acerca de los precios de los bienes la que refleja la relación

marginal de sustitución. Y lo que es más importante, a través de las elecciones individuales

pueden ser determinados los precios de los bienes y las cantidades que de estos demandan los

consumidores. Veamos cómo funciona la RMS de una forma un poco más técnica.

En la gráfica (figura IV), la RMS de y por x en el intervalo x’, x es 1/2. Si en vez de usar

la tasa de variación media utilizamos la tasa de variación instantánea, es decir, cuando los

desplazamientos a lo largo de la curva de indiferencia son infinitesimales, tenemos que la RMS

cuando x tiende a cero es la pendiente de la línea tangente a la curva, esto es, su derivada. La

tangente tendrá una pendiente ambigua si la curva tiene un saliente, de ahí el requisito de que las

curvas de indiferencia sean suaves.

CAPÍTULO I

17 Seguimos aquí a ZAPATERO, J. C., 1987, p. 32, ya que da una explicación mas didáctica que la de Green.

34

Figura IV

De estos siete axiomas pueden ser deducidas una serie de proposiciones interesantes

acerca de las curvas de indiferencia. Aunque estas propiedades ya han sido citadas vale la pena

exponerlas sistemáticamente.17

a) Las curvas de indiferencia son decrecientes, basado en el supuesto fuerte -aunque

discutible-, que los sujetos siempre prefieren más a menos. Esto es lo que viene a afirmar

fundamentalmente el axioma IV: el individuo siempre elegirá aquella cesta de bienes que

contenga más de todos los artículos, siendo indiferente entre las que contienen lo mismo, o

pudiendo serlo entre aquellas combinaciones que tienen más de un artículo y menos de otro.

b) Por cada punto del espacio de bienes pasa una curva de indiferencia, dada la perfecta

divisibilidad de las mercancías y la posibilidad de compensar al sujeto de pérdidas en las

cantidades de una mercancía con aumentos en las cantidades de otra. Dichos aumentos pueden

ser milimétricos o pueden ser muy grandes, todo depende de la configuración de la curva del

sujeto.

c) Las curvas de indiferencia no se intersectan, ya que si lo hicieran se incumpliría la

transitividad. Hemos de señalar que este es un requisito muy fuerte dado que exige la

transitividad de la indiferencia. En la gráfica (figura V), el punto A es indiferente a B, ya que está

en la misma curva de indiferencia, y B es preferible a C, ya que se encuentra más arriba y

CAPÍTULO I

18 ZAPATERO, J.C., 1987, p. 33.

35

Figura V

más a la derecha, por lo que A debe ser preferible a C, pero dado que las curvas se intersectan,

nos encontramos que A está en la misma curva de indiferencia que C, con lo cual la transitividad

queda violada.

d) Las curvas de indiferencia son convexas. Si la curva de indiferencia fuera cóncava,

sugeriría que el sujeto valora más una unidad de un bien cualquiera x cuando tiene mucho de él

que cuando tiene poco, ‘lo que parece opuesto al sentido común’.18

2.2. LA RESTRICCIÓN PRESUPUESTARIA Y LA ELECCIÓN DEL CONSUMIDOR.

Cuando se definió el conjunto de consumo se dijo que era aquel conjunto compuesto de

manojos o cestas de bienes en el cual, determinado por su presupuesto y el precio de los bienes

el consumidor ha de realizar su elección. Es decir, el presupuesto o la renta del sujeto acota el

conjunto de consumo. Obviamente, el deseo es libre y no tiene límites, pero en el mundo real

hemos de enfrentarnos con el presupuesto, este se relaciona con un concepto crucial dentro de

la teoría económica, el de escasez. No tendría sentido una teoría de la elección si el sujeto puede

tener a su disposición cualquier bien que desee. La idea que subyace a la teoría es qué bien o

artículo elegirá el sujeto teniendo en cuenta que tiene una renta limitada. Habrá bienes muy

deseados, pero fuera de su alcance, mientras que habrá otros, inferiores en su valoración pero

que son los que realmente puede adquirir. Por tanto la elección viene determinada tanto por los

CAPÍTULO I

19 Uno de los supuestos fundamentales, en esta parte de la teoría, es que el consumidor ‘racional’ gasta toda surenta en bienes perecederos o de consumo. Aunque parece un supuesto altamente restrictivo e irreal, ya quees posible ahorrar y trasladar parte de esos recursos a la etapa siguiente, dicha objeción es salvada fácilmente,postulando el ahorro como el enésimo bien en la cesta de consumo.

36

deseos de los individuos, sus preferencias sobre los artículos de consumo, como por la renta de

la que dispone para adquirir esos artículos.19 Veamos cómo encajar la recta presupuestaria dentro

de las herramientas que se han venido manejando.

Hasta aquí sabemos que por cada punto del espacio de bienes, representado en un eje

de coordenadas, pasa una curva de indiferencia. Cada una de estas curvas refleja combinaciones

distintas de las cantidades de dos productos dados que son indiferentes para el consumidor. A

su vez, las curvas situadas más al nordeste respecto al origen serán las combinaciones más

preferidas para el sujeto. Esto es obvio, dado que dichas combinaciones poseen una mayor

cantidad de ambos bienes.Tenemos pues un eje de coordenadas donde absisa y ordenada

reflejan las unidades de dos productos cualesquiera, cada producto tiene un precio que ya ha sido

establecido, y una serie de curvas de indiferencia que refleja la preferencia de los individuos.

Ahora podemos trazar una recta que vaya de un eje a otro. Esta recta representará la restricción

presupuestaria.Se presenta una dificultad,normalmente las rentas individuales vienen expresadas

en unidades monetaria, pero al trazarla de un eje a otro lo que tenemos es una recta que, en cada

uno de los puntos que la componen,refleja distintas cantidades de los dos productos.Por ejemplo

dos unidades del producto a y tres unidades del producto b. Si como hemos dicho cada uno de

los artículos tiene un precio asignado, por ejemplo 1.000 y 2.000 pesetas respectivamente, la

renta del sujeto equivale a 8.000 pesetas. Con esa renta el sujeto puede comprar dos unidades

de a y tres de b, o cuatro de b y ninguna de a, o una de b y seis de a, etc.

Veámoslo con un nuevo ejemplo. Como se ve en la figura VI, tenemos un eje de

coordenadas que representa cantidades distintas de dos productos dados, x1 y x2, una serie de

curvas i1, i2, i3 que representan las curvas de indiferencia de un individuo dado y una recta que

va de un eje a otro.

CAPÍTULO I

20 En el punto x, la relación de cambio de x2 por x1 es la relación marginal de sustitución de x1 por x2: RMS x1x2=px1/px2, es decir, el precio subjetivo de x1 que refleja nuestra valoración de éste en términos de x2.

37

Figura VI

Para una renta dada de 120.000 ptas., siendo el precio de x1 de 3.000 ptas. la unidad y el

de x2 de 4.800 la unidad, tenemos que el consumidor puede adquirir 40 unidades de x1 y ninguna

de x2, o 25 unidades de x2 y ninguna de x1, o cualquier combinación entre ambas, representadas

por los puntos que configuran la recta. Si combinamos esta recta con las curvas de indiferencia,

la elección del consumidor consistirá en aquella curva de indiferencia más alta sin sobrepasar la

línea de presupuesto. Matemáticamente, esta línea es tangente a la curva en un solo punto

(representada en la gráfica por x), y ese será el punto óptimo que elegirá el consumidor, ya que

es el punto de indiferencia entre los dos bienes que cae dentro de su restricción presupuestaria.20

En el espacio que queda por encima de esa línea, la elección no es posible, ya que queda fuera

del alcance del consumidor al exceder su renta. La elección dentro del espacio triangular,

comprendido entre la línea de presupuesto y los ejes, implica que el consumidor no gasta toda

su renta, lo cual violaría los axiomas III y IV.

Vemos ahora la importancia de curvas de indiferencia convexas. Si las curvas de

indiferencia fueran cóncavas, el punto de tangencia sería el peor de la recta de presupuesto y no

el mejor. Pero lo más importante de todo, hemos establecido la existencia de un único punto que

representa la mejor elección del consumidor dadas sus restricciones. Con el supuesto de que el

CAPÍTULO I

38

consumidor es racional, es decir, que elige el mejor curso de acción posible para la satisfacción

de sus fines, y el supuesto adicional de que prefiere más a menos, refiriendo este más y menos

a riqueza, bienes, satisfacción, etc, contamos con las herramientas necesarias para predecir la

elección del agente.

* * *

Este enfoque acerca de la elección individual nos permite, dada una ordenación de

preferencias, predecir qué bienes y en qué cantidades serán adquiridos por el individuo. A su vez

los precios quedan determinados por la satisfacción que al individuo le reporta el consumo de

esos bienes. Es importante señalar un par de cuestiones.

En primer lugar la centralidad del concepto de indiferencia, el cual adquiere, en este

enfoque, mayor relevancia que la preferencia estricta. La razón estriba en que es la indiferencia

entre cantidades distintas de dos bienes la que nos permite predecir la cantidad que será adquirida

de cada bien. Y esa predicción, cantidades de mercancías demandadas, es uno de los objetivos

fundamentales de la teoría económica.

Por otro lado tenemos que los precios quedan determinados por la satisfacción que le

reportan al sujeto los distintos bienes de consumo. En la introducción se hacía referencia a que

la diferencia entre los dos enfoques dentro de la teoría del comportamiento del consumidor,

radica en el concepto de utilidad que se maneja en cada una de ellos. Es hora de explicar en qué

consiste la utilidad dentro del enfoque de las curvas de indiferencia. La utilidad aquí no es más

que un índice de satisfacción o de preferencia. Los bienes más preferidos tendrán una utilidad

mayor dado que reportan mayor satisfacción. Pero la centralidad de este enfoque radica en las

curvas de indiferencia y dentro de cada una de estas la utilidad se mantiene constante. Una forma

de representarlo sería a través de un espacio tridimensional. Nuestra tercera dimensión sería aquí

la utilidad. A medida que vamos ascendiendo por este nuevo eje la utilidad va aumentando, de

forma que nos situamos en una especie de montaña. Si realizamos un corte transversal

tendremos la representación de las curvas de indiferencia, donde los artículos y las cantidades

CAPÍTULO I

21 GREEN, H. A. JOHN, 1986, pp. 79-80. «... es más fácil si se utiliza una función de utilidad, i) derivarconsecuencias provechosas adicionales de los axiomas 1-7 ii) concebir hipótesis con consecuenciasinteresantes respecto del comportamiento iii) descubrir las preferencias que implican tipos determinados deconducta».

39

al estar al mismo nivel, digamos topográfico, tienen una utilidad constante. ¿Qué ocurre en el

paso de una curva de indiferencia a otra? Que la utilidad aumenta si la curva está al nordeste y

disminuye si está al sudoeste. Es decir, podemos ordenar las curvas de mayor a menor utilidad,

o de más preferida a menos, ambas ordenaciones son lo mismo, lo que no podemos determinar

es cuánto más útil resultan los bienes situados en una curva de indiferencia respecto a los

situados en otra. En este sentido tenemos sólo una medición ordinal de la utilidad.

3. EL ENFOQUE DE LA UTILIDAD MARGINAL.

Otra de las diferencias fundamentales entre ambos métodos es que a través del método

de las curvas de indiferencia sólo se puede considerar de una vez dos productos, o un producto

y un conjunto de ellos. Por el contrario, con el análisis basado en la utilidad marginal podemos

considerar, al menos teóricamente, un número infinito de productos. Esto ha hecho que se haya

considerado a este último como una herramienta mucho más potente a la hora de hacer

predicciones sobre la conducta de los sujetos en el mercado.21

Es práctica común entre los teóricos afirmar que si existe un consumidor con una

ordenación débil de preferencias que cumple los axiomas 1-7 analizados más arriba, es posible

construir una función de utilidad continua y diferenciable que nos posibilite la obtención de un

único máximo. Este enfoque es legítimo pero presenta el inconveniente de mezclar dos lenguajes

teóricos en cierto sentido distintos. Aclaremos esto un poco más y tal vez podamos deshacer

algunos malos entendidos. Ambos métodos son equivalentes, y nos conducen a los mismos

resultados, ambos son instrumentos para describir las preferencias, todo lo que pueda ser dicho

en términos de uno puede ser dicho en términos de otro, pero cada uno posee un lenguaje

propio, y hay ocasiones en que comprometernos con uno u otro método implica algo más que

una forma distinta de realizar los cálculos, representa un compromiso con algunos supuestos

CAPÍTULO I

40

adicionales. A continuación traduciremos cada axioma del enfoque de las curvas de indiferencia

a un axioma en términos del enfoque de la utilidad marginal para así poder clarificar nuestros

argumentos.

La forma que toma la equivalencia entre la ordenación de preferencias y la función de

utilidad es suponer que existe un consumidor con una ordenación débil de preferencias que

cumple los axiomas 1-7 analizados más arriba. Se supone, además que se puede hallar una

función de utilidad que asigne, a cada manojo de mercancías, en el conjunto de consumo, un

número real único u de forma que:

u = u(x) = u (x1, x2,...,xn) y que para todos los x, x’ en C u(x)≥ u(x’) sí y sólo sí xRx’.

Lo que esto quiere decir, es que la utilidad que proporciona un cesto de bienes x, depende

de la utilidad proporcionada por cada uno de los bienes, y que la utilidad de un cesto de bienes

x, será mayor o igual que la de un cesto de bienes x’, sí y sólo sí, x es preferida o indiferente a

x’.

Con este planteamiento, vemos que los axiomas I y II, que hacían referencia a la

posibilidad de comparación entre dos cestas de bienes y a la transitividad de la relación de

preferencia se cumplen por la misma naturaleza de los números reales que atribuimos a u, ya

que, de cualquier número real, podemos decir si es mayor, menor o igual a otro, a la vez que la

relación mayor, menor o igual que, cumple la propiedad de transitividad.

El axioma III es equivalente a decir que el consumidor escoge, entre el conjunto de

alternativas, aquella que maximiza su utilidad, es decir, la que hace máximo el valor de u. Dado

los axiomas I y II el establecimiento del axioma III es trivial, dado que el agente elige aquella

alternativa que prefiere y, por definición, la alternativa preferida posee el grado mayor de utilidad.

Hemos de introducir ahora un nuevo concepto, el de utilidad marginal. Los supuestos que

hemos venido manejando hasta aquí implican que la utilidad o satisfacción que proporciona un

determinado bien aumenta a medida que aumenta la cantidad poseída de ese bien, la cuestión

es a qué ritmo aumenta. El primer vaso de agua en el desierto proporciona una gran satisfacción,

CAPÍTULO I

22 BILAS, R., 1984, p. 64.

41

y el segundo y el tercero, pero llega un momento en que el individuo no puede beber más agua;

puede almacenarla para continuar el camino, pero sólo en la medida en que la pueda transportar.

Si el transporte del agua le impide avanzar esta ya no estará proporcionándole utilidad sino

desutilidad. Esto es lo que quiere decir la proposición que afirma que la utilidad crece con una

tasa decreciente. Para poder entonces establecer la utilidad que proporciona un bien no se recurre

a la utilidad total, sino a la utilidad marginal, siendo esta definida «como la variación de la utilidad

total que resulta de la variación de una unidad en el consumo del bien en cuestión, por unidad

de tiempo».22 En términos coloquiales, la utilidad marginal es la utilidad de la última porción del

bien adquirido o consumido.

El axioma IV es equivalente a exigir que la utilidades marginales sean positivas, es decir

si aumenta la cantidad de un bien xi, suponiendo las cantidades de los demás bienes constante,

la utilidad aumentará, más adelante se establecerá si aumenta con una tasa constante, creciente

o decreciente. Formalmente establecido: en todo punto de C, o conjunto de consumo, ∂ u / ∂ x i

> 0 (i = 1, 2, ..., n).

El axioma V garantiza que la función de utilidad es continua, condición necesaria si ha

de ser derivable, téngase en cuenta que la utilidad marginal queda definida como la primera

derivada de la función. Es decir, si uno se desplaza a lo largo de cualquier camino por el conjunto

de consumo, nunca llega a un punto en que el valor de u se interrumpa bruscamente y reaparezca

a un nivel más alto o más bajo. Si únicamente contáramos con los axiomas I-IV sería posible la

existencia de una ordenación lexicográfica, lo cual violaría el axioma V.

Una ordenación lexicográfica consiste en ordenar las preferencias como las palabras en

un diccionario, donde la primera letra representaría el primer artículo en la cesta de bienes, la

segunda el segundo y así sucesivamente. El ejemplo de J. C. Zapatero es altamente ilustrativo:

«D. Braulio es un malvado profesor para quien en la vida solo existen dos satisfacciones que

merezcan tal nombre: suspender a sus alumnos y asistir a proyecciones clandestinas de películas

CAPÍTULO I

23 ZAPATERO, J. C., 1987, p. 30.

42

‘porno’. (...) Si a D. Braulio le dan a elegir entre dos combinaciones que tengan un número

distinto de suspensos siempre prefiere aquella en la que el número de suspensos es mayor; por

otra parte si el número de suspensos es igual en ambas combinaciones, prefiere aquella en la que

hay más películas».23 La cesta de bienes de D. Braulio está compuesta por suspensos y películas

"porno". ¿Cómo podríamos dibujar su curva de indiferencia entre estos dos bienes?

Supongamos que disfruta inicialmente de 4.789 suspensos y 20 películas; ¿habría alguna otra

combinación que la resultara indiferente? Recordemos, que la construcción de curvas de

indiferencia, está basada en el supuesto de que es posible compensar al sujeto de la pérdida de

unidades de un bien, con un aumento en el número de unidades de otro bien. Pero en el caso de

D. Braulio, de dos combinaciones de bienes siempre preferirá aquella con mayor número de

suspensos y si el número de suspensos es igual, con mayor número de películas. Examinemos

la gráfica.

Figura VII

No hay ningún punto que sea indiferente a A, ya que cualquier punto a la derecha de A

es preferido a éste, y A es preferido a cualquier punto situado a la izquierda, aunque contenga

un mayor número de películas, ya que tienen un número menor de suspensos.

Esta condición es decisiva, ya que, sin ella, la función de utilidad no sería continua y, por

tanto no sería diferenciable, lo cual quiere decir que no habría posibilidad de hallar un único

máximo, que garantice un único curso de acción posible. Curso de acción que, además, se

CAPÍTULO I

24 ELSTER, J., 1990, p. 32.

43

postula como el óptimo. A veces, esta exigencia ha sido postulada como una condición de

racionalidad por autores como J. Elster,24 lo cual no es de extrañar dado que esta condición es

fundamental para ambos métodos: en el enfoque de la utilidad marginal su incumplimiento nos

impide hallar un único máximo que nos permita determinar la mejor opción para el individuo,

en el enfoque de las curvas de indiferencia nos impide su misma construcción. Es un requisito

matemático importante, pero no hemos de olvidar que únicamente descansa en el supuesto de

que es posible compensar a los individuos de pérdidas en las cantidades de un bien con

aumentos en las cantidades de otro bien.

El axioma VI afirma que las curvas de indiferencia son suavemente convexas hacia el

origen. Hemos visto la importancia de la convexidad, ya que, de este modo, podemos hallar un

único punto tangente a la línea presupuestaria, donde el consumidor optimiza sus recursos.

El equivalente de la convexidad en el enfoque de la utilidad marginal parece ser la famosa

‘ley de la utilidad marginal decreciente’, que afirma que la utilidad que le proporciona al

individuo un bien, crece a medida que aumenta la cantidad poseída de ese bien, pero con una

tasa de aumento decreciente. Recordemos en qué consistía la convexidad de las curvas de

indiferencia.

Si volvemos por un momento a la figura II, podremos ver que a medida que el sujeto va

teniendo menos cantidad de x2, necesita mayores cantidades de x1 para compensar la pérdida.

Figura VIII

CAPÍTULO I

25 SCHUMPETER, J., Historia del análisis económico. Barcelona, Ed. Ariel, 1982, p. 994. El postulado de lautilidad marginal decreciente es fundamental dentro de una economía del bienestar de corte utilitarista, comose verá en el próximo capítulo.

26 En algunos manuales, la conveniencia y razonabilidad del supuesto es lo que parece avalarlo: «... los aumentosde x necesarios para compensar la pérdida de una unidad de y se hacen mayores conforme tenemos menos dey y más de x. Esto parece ser ‘razonable’ y constituye una de las razones por las que adoptamos la hipótesisde la convexidad». ZAPATERO, J. C., 1987, p. 33. «El supuesto de que las curvas de indiferencia sonsuavemente convexas hacia el origen es (...) ‘conveniente’ en el sentido de que, como allí se indicó, la relaciónmarginal de sustitución se determina entonces unívocamente en cada punto». GREEN, H. A. JOHN, 1986, p. 49.

44

Si halláramos la relación marginal de sustitución en el intervalo, y no en el punto,

tendríamos que la RMS de x1 por x2 sería 2, 1, 0.6, ... de ahí que las curvas sean convexas.

Por su parte, la ley de la utilidad marginal decreciente, o primera ley de Gossen, afirma

que «la utilidad total de una cosa para un individuo aumenta hasta el punto de saciedad o

saturación con cada aumento en la cantidad de esa cosa pero con una tasa de aumento

decreciente».25 Decíamos más arriba que, si aumenta la cantidad de un bien, manteniéndose la

cantidad de las restantes mercancías constante, la utilidad aumentará, pero como ya se señaló

no en la misma proporción. Curvas de indiferencia convexas y utilidades marginales

decrecientes, son ‘cosas’ de sentido común,26 y en principio parecen referirse a lo mismo. Pero

¿implican una a la otra?, es decir, una curva de indiferencia convexa implica que la utilidad

marginal es decreciente. El tema merece cierta atención dado que aquí entra en juego la

equivalencia entre ambos métodos y las distintas concepciones que ambos tienen del término

utilidad.

Para postular la equivalencia entre ambos conceptos debemos hacer el supuesto adicional

de las utilidades independientes, éste viene a afirmar que, la utilidad del cesto de bienes x es la

utilidad del primer bien, más la utilidad del segundo, más la utilidad del tercero, ..., es decir, la

utilidad que proporciona cada mercancía es independiente de lo que suceda con el resto de las

mercancías, lo cual supone postularlo como una función de utilidad aditiva donde u = f1(x1) +

f2(x2) + ... + fn(xn). Ya la hipótesis de las utilidades independientes, a la hora de construir una

función de utilidad que refleje la ordenación de preferencias, había sido mencionada por G.

Debreu en 1959, en una nota a pie de página: «Debe subrayarse que el presente análisis no cubre

CAPÍTULO I

27 DEBREU, G., Teoría del valor. Barcelona, Ed. Bosch, 1973.

28 Un ejemplo de como el consumo es afectado por el consumo de otros individuos es el efecto del carro triunfaly el efecto esnobismo. Por el primero, el consumidor compra cosas que no le gustan especialmente con objetode impresionar a sus vecinos, por el segundo, evita determinadas compras por miedo a que le consideren unapersona vulgar.

29 La demostración está en GREEN, H. A. JOHN, 1986, pp. 86-89.

45

el caso en que el conjunto de consumo de un consumidor y/o sus preferencias dependen de los

consumos de los otros consumidores (y/o de las producciones de los productores)».27

La cita de Debreu viene al caso dado que las preferencias acerca de un artículo no han

de depender del resto de los artículos a disposición del consumidor, es decir, de las producciones

de los productores,28 pero sabemos que las utilidades de muchos de los bienes no son

independientes, no podemos escuchar un disco compacto sin aparato reproductor, si tenemos

mantequilla deseamos pan, etc. Pero podemos cambiar la mantequilla por margarina. Es decir,

hay bienes que son complementarios y hay bienes que son sustitutivos entre sí. Es decir, sus

utilidades no son independientes. Pero si no postulamos utilidades independientes pueden existir

distintas funciones de utilidad que dan lugar a la misma curva de indiferencia convexa hacia el

origen y cuyas utilidades marginales no son decrecientes.29

La cuestión tiene un calado más hondo del que acabamos de señalar y se refiere a la

medición que se realiza del término utilidad. Se ha señalado anteriormente que el enfoque de las

curvas de indiferencia plantea una medición ordinal de la utilidad, es decir, podemos asignar un

orden, primera, segunda, tercera, etc, a las distintas curvas de indiferencia, en función de la

preferencia del agente. Pero da igual ordenarlas como primera, segunda, tercera, como segunda,

cuarta, octava o, por lo que se denomina, cualquier transformación monotónica de tales índices.

Esto es la utilidad ordinal.

En el caso de la utilidad cardinal se afirma algo mucho más fuerte, se supone que los

índices sólo se pueden diferenciar entre sí por un elemento aditivo y uno multiplicativo, es decir,

las diferencias entre los índices aumentan o disminuyen en la misma proporción. Se pueden

hacer por tanto afirmaciones como: la cesta de bienes x proporciona doble utilidad que la cesta

CAPÍTULO I

30 En este caso a= 1/2 y b=0.

46

y, y ésta, el doble de utilidad menos uno que la cesta z. Por tanto esta escala asignaría utilidades

16, 8, 5 a las cestas x, y, z. Una transformación lineal de los índices x, y, por ejemplo, implicaría

que y ha de satisfacer la ecuación lineal y=ax+b,30 siendo a y b constantes a lo largo de las

distintas transformaciones. Persiste en esta medición la arbitrariedad del punto de origen y las

unidades de escala.

Aunque la introducción de cuestiones de medición puede parecer trivial es sumamente

importante en este contexto, dado que, medir hasta una transformación lineal implica el

conocimiento de la primera y segunda derivada de la función. El valor de la primera derivada es

un índice de la utilidad marginal mientras que el signo negativo de la segunda derivada indica la

utilidad marginal decreciente.

Esto tiene relevancia para dos cuestiones: el amplio debate que se generó en torno a la

posibilidad de establecer mediciones de la utilidad y en segundo lugar que es la utilidad marginal

decreciente la que garantiza que en el proceso de elección el sujeto maximizará su utilidad.

Veamos ambas cuestiones por orden.

3.1. DIGRESIÓN EN TORNO A LA MENSURABILIDAD DE LA UTILIDAD.

Hemos de aclarar que el enfoque de la utilidad marginal es históricamente previo al

enfoque de las curvas de indiferencia y que este último surge, precisamente, como respuesta a

los problemas planteados por la mensurabilidad de la utilidad.

Esta breve digresión, fundamentalmente histórica, se completará en el próximo capítulo,

pero es necesario aquí realizar algunas observaciones.

Hasta la década de los treinta del siglo XX no supone ningún problema la cardinalidad

de la utilidad. De hecho se propone como base de una economía del bienestar de corte utilitarista

que justifica los trasvases de renta de los más favorecidos a los menos en base a la ley o el

principio de utilidad marginal decreciente, bajo el objetivo de maximizar la utilidad total de la

CAPÍTULO I

31 Fundamentalmente en ROBBINS, L., Ensayo sobre la naturaleza y significación de la ciencia económica.México, Ed. Fondo de Cultura Económica, 1980 y «Interpersonal Comparison of Utility: A Comment».Economic Journal, núm, 48, 1938, pp. 635-641.

47

sociedad. En efecto, si la utilidad que proporciona un bien va disminuyendo a medida que se

posee más de ese bien, una unidad monetaria adicional proporcionará más utilidad en manos del

pobre que en manos de rico. Hay implícita en este sistema una comparación interpersonal de

utilidades y ésta será justamente el objeto de la crítica. Los argumentos de Robbins31 acerca de

la imposibilidad de comparar dos magnitudes completamente subjetivas de dos individuos

distintos dio al traste no sólo con la economía del bienestar de corte utilitarista sino con la misma

idea de utilidad cardinal.

Metodológicamente las comparaciones interpersonales son sospechosas dada la

arbitrariedad de las unidades de medida y del punto de origen. A partir de aquí gran parte de los

esfuerzos teóricos tratan de normalizar escalas para lograr comparaciones interpersonales de

utilidad, pero dentro del marco de la Economía Normativa. En la Economía Positiva los estudios

comienzan a orientarse hacia el enfoque de las curvas de indiferencia. Tras un auge inicial se vió

que el concepto de indiferencia es tan introspectivo e inobservable como el de utilidades

marginales, lo que hace que ambos métodos se hayan situado actualmente en pie de igualdad.

En lo que respecta a la equivalencia entre ambos métodos, ésta parece depender de la

aceptación o no, por parte de los teóricos, del principio de utilidad marginal decreciente. Algunos

lo aceptan como un supuesto introspectivo obvio, otros argumentan que este postulado no tiene

ninguna implicación de cara a poder observar como aumenta o disminuye la satisfacción de los

consumidores, ya que una curva de utilidad marginal decreciente es resultado, únicamente, de

la forma aditiva de definir la función de utilidad. Esta función no tiene en cuenta la interrelación

entre los bienes. Supongamos que el consumidor tiene que elegir entre cantidades distintas de

dos bienes, pan y mantequilla. Está dispuesto a renunciar a algunas unidades de pan a cambio

de unidades adicionales de mantequilla, por tanto, su curva de indiferencia para estos dos bienes

es convexa. Si la curva de indiferencia convexa implicara utilidad marginal decreciente para, por

CAPÍTULO I

48

ejemplo, el pan, significaría que las sucesivas unidades de pan le aportan cada menos menos

utilidad al individuo. Pero en este caso el pan y la mantequilla son bienes complementarios;

cuanto más mantequilla tenga mayor será la utilidad del pan, no menor, como postularía la

utilidad marginal decreciente. Esto explica porque se requieren funciones de utilidad aditivas,

donde la utilidad de los bienes es independiente una de otra, porque en el caso de bienes

complementarios no se cumple el principio de utilidad marginal decreciente.

3.2. LA MAXIMIZACIÓN DE LA UTILIDAD.

Uno de los supuestos fundamentales de la teoría económica es que el consumidor actuará

siempre de forma que haga máxima su utilidad o maximice su función de utilidad. En la versión

simplificada que se ha dado en la introducción acerca de la teoría de la elección racional, esto

sólo significa que los sujetos eligen aquella alternativa que prefieren. En el enfoque que estamos

manejando la cuestión no es tan sencilla, dado que el conjunto de axiomas desarrollados implica

que el agente igualará sus utilidades marginales. A nivel teórico esto viene dado por el supuesto

del equimarginalismo, la gran revolución de finales del siglo XIX, que supone el cambio de

paradigma de la escuela clásica a la neoclásica.

Como expone M. Blaug: «el principio en cuestión es el de la igualación de los valores

marginales: al dividir una cantidad fija de cualquier cosa entre varios usos competitivos, la

asignación eficiente implica que cada unidad del dividendo se asigna en forma tal que la ganancia

de su transferencia a un uso será exactamente igual a la pérdida involucrada en su retiro de otro

uso. Ya se haga referencia a la asignación de un ingreso fijo entre varios bienes de consumo, o

de un gasto fijo entre varios factores productivos, o de una cantidad dada de tiempo entre el

trabajo y el ocio, el principio permanece igual. Además, en cada caso tiene una solución de

máximo el problema de la asignación si, y sólo si, el proceso de la transferencia de una unidad

del dividendo a un uso singular entre todos los usos posibles está sujeto a rendimiento

decrecientes. En la teoría del consumidor se obtiene una situación óptima cuando el consumidor

CAPÍTULO I

32 BLAUG, M., Teoría económica en retrospección. México, Ed. Fondo de Cultura Económica, 1985a, p. 377.

49

haya distribuido su ingreso dado en forma tal que la utilidad marginal de cada peso de compra

sea igual; la ley de la utilidad marginal decreciente asegura la existencia de tal óptimo. (...) Toda

la economía neoclásica no es más que la expresión de este principio en contextos cada vez más

amplios, aunada a la demostración de que la competencia perfecta produce, bajo ciertas

condiciones, la asignación equimarginal de gastos y recursos».32

Lo que este extenso párrafo viene a decir es que sólo se maximiza la utilidad cuando la

utilidad marginal por unidad monetaria gastada es la misma para todas las mercancías. Es decir,

la utilidad marginal dividida por el precio, tiene que ser la misma para todos los artículos y la

utilidad marginal para cada bien es decreciente, lo cual a su vez implica que todos los bienes son

sustitutivos netos entre sí, es decir, una de las condiciones postuladas es que los bienes no sean

complementarios como en el caso del pan y la mantequilla analizados al final del apartado

anterior. Éstas son las condiciones necesarias para que el sujeto maximice su utilidad, como se

puede apreciar es mucho más restrictivo que simplemente exigir que el individuo elige lo que

prefiere.

Por tanto tenemos dos restricciones adicionales a la elección del consumidor: el

equimarginalismo y la utilidad marginal decreciente. Esta es la razón fundamental por la cual no

nos decantamos por igualar teoría de la elección racional, en el sentido de los axiomas básicos

del enfoque ordinal, y teoría del comportamiento del consumidor. Es cierto que algunos autores

cuando hablan de elección racional se refieren a la teoría del comportamiento del consumidor

y hacen explícitos los supuestos que subyacen a sus planteamientos, pero muchos otros no y

ello lleva a confusiones. No es lo mismo afirmar que el individuo maximiza su utilidad, cuando

lo único que se está postulando es que el sujeto elige la alternativa preferida en su ranking de

preferencias a afirmar que esa alternativa, que aparece como máxima, es resultado de una

elección donde el sujeto iguala las utilidades marginales de cada peso de compra, o lo que es lo

CAPÍTULO I

33 Recuérdese que la continuidad de las preferencias se refería a la seguridad de poder hallar puntos indiferentesa un punto dado x si trazábamos rayos desde el origen, en un eje de coordenadas, que entren en el conjunto deconsumo C.

50

mismo las utilidades marginales de cada alternativa y que sus utilidades marginales son

decrecientes. Estas dos afirmaciones son mucho más restrictivas que la primera en cuanto a la

elección de los individuos.

3.3. LA FORMA DE LA FUNCIÓN DE UTILIDAD.

Hemos visto que si el sujeto tiene una ordenación de preferencias completa, transitiva y

continua,33 y las curvas de indiferencia son suavemente convexas hacia el origen, es posible

construir una función de utilidad continua y diferenciable en todos sus puntos que, como hemos

visto en el último apartado,nos proporcione un único máximo. La cuestión ahora estriba en

determinar qué forma tiene la función de utilidad que cumple con las condiciones expuestas y

nos proporciona ese óptimo.Recuérdese que la existencia de un único máximo en la función de

utilidad, es el equivalente a una curva de indiferencia convexa y tangente a un sólo punto de la

línea presupuestaria, que nos da el punto óptimo de asignación de renta entre diversos bienes

alternativos.

La función de utilidad que satisface estos requisitos ha de ser cóncava o cuasi cóncava.

Aunque lo que sigue puede parecer excesivamente técnico,es sumamente importante pues,

dependiendo de la forma que tenga la función de utilidad, deduciremos una actitud hacia el

riesgo u otra por parte de los individuos, cuando introduzcamos en el modelo el comportamiento

del agente en condiciones de incertidumbre.

Condiciones para la concavidad:

f {kx’ + (1 - k)x’'} > k f(x’) + ( 1 - k)f (x’’) donde k es una constante entre 0 y 1.

Lo que la expresión quiere decir es que, en la siguiente gráfica, si trazamos una recta entre

las imágenes de dos punto cualesquiera x’, x’’, la imagen de cualquier punto x situado en el

intervalo (x’, x’’) tiene que estar por encima del valor sobre la recta asociado al punto x. O lo que

CAPÍTULO I

51

es lo mismo, f(x) > A para cualquier punto x situado en el intervalo entre x’ y x’’.

Figura IX

Esta sería la condición de una función estrictamente cóncava, pero todo lo que

necesitamos para garantizar un máximo único en la función de utilidad, es que la función sea

estrictamente cuasi cóncava: u (x’1 ... x’n) = u (x’’1 ... x’’n) = u*.

La utilidad de x’ y x’’ es la misma (lo cual quiere decir que ambas están en la misma

curva de indiferencia). Por tanto: u [ k x’1 + (1 - k) x’’1 ... k x’n + (1 - k) x’’n ] > u*.

Figura X

CAPÍTULO I

34 SAMUELSON, P., «Comsumptiom Theorems in terms of overcompensation rather than indifferencecomparisons», Economica, vol. 20, núm. 77, 1938, pp. 1-9.

35 Equivalente en el sentido de poder derivar las mismas implicaciones para la demanda desde ambas teorías.

52

Esto traducido a un lenguaje menos formal viene a decir que cualquier punto situado

entre x’ y x’’ tiene una utilidad mayor, lo cual implica que pertenece a una curva de indiferencia

superior. Trasladado al modelo de las curvas de indiferencia, significa que si entre dos puntos

cualesquiera de una curva trazamos una recta, los puntos pertenecientes a esa recta estarán en

una curva de indiferencia superior. Recuérdese que por cada punto del espacio de bienes pasa

una curva de indiferencia.

4. UNA FORMULACIÓN ALTERNATIVA: LA TEORÍA DE LA PREFERENCIA REVELADA.

Hemos supuesto hasta aquí la existencia de dos únicos enfoques en la teoría del

comportamiento del consumidor. Ambos poseen virtudes y defectos, pero, sobre todo, ambos

comparten un considerable grado de abstracción. Ningún acto singular de elección puede probar

la indiferencia del consumidor ante dos objetos de elección. Tampoco tiene sentido, a nivel de

observación, la idea de intensidad de preferencias, por un objeto frente a otro, que se deriva del

enfoque de la utilidad marginal. Si suponemos además que esas relaciones de preferencia o

indiferencia cumplen una serie de requisitos tendremos una mejor alternativa de elección. Para

un análisis de la realidad o irrealidad de los supuestos que son necesarios para llegar a deducir

esa conducta remitimos al capítulo tres, pero lo cierto es que muchos teóricos se han sentido

incómodos con la formulación de la teoría del comportamiento del consumidor. Esto lleva por

ejemplo a P. Samuelson34 a reformular la teoría de elección del consumidor. Aunque esta teoría,

que resulta igualmente equivalente35 al enfoque de la utilidad marginal, fue abandonada, su

exposición y crítica justifica, en cierta medida, el grado de abstracción de los enfoques

propuestos que son los que han sobrevivido en el desarrollo teórico.

En esta teoría las preferencias se infieren a partir de la conducta revelada de los

CAPÍTULO I

36 De hecho, Green así lo hace: Axioma R1: Ante cualquier conjunto de alternativas, el consumidor efectúa una elección.Axioma R2: (congruencia): Si se elige x entre un conjunto de alternativas que incluye x’ (el cual es distintode x), entonces cualquier conjunto de alternativas del que se escoge x’ no contiene a x. GREEN, H. A. JOHN,1986, p. 122.

37 SAMUELSON, P., «A Note on the Pure Theory of Consumer’s Behaviour» Economica, vol. 5, 1938, p.71.Tomado de SEN A., «Behaviour and the Concept of Preference». Economica, vol, XL, 1973, p. 242.

38 LITTLE, I., «A Reformulation of the Theory of Consumer’s Behaviour»; HICKS, J. R., A Revision of DemandTheory. Tomado de SEN, A., 1973, p. 242.

39 En el desarrollo de este apartado seguiremos básicamente a HAUSMAN, D., The Inexact and Separate Scienceof Economics. Cambridge, Cambridge University Press, 1992, pp. 19-22, quien a su vez sigue el artículo yaclásico de SEN, A., 1973. Otras obras de Sen acerca de preferencias y elección serían: Elección colectiva ybienestar social. Madrid, Ed. Alianza Universidad, 1976; «A Posibility Theorem on Majority Decisions».Econometrica,Vol. 34, 491-499, 1966; Bienestar, justicia y mercado. Barcelona, Ed. Paidós, 1997; «Laimposibilidad de un liberal paretiano», en HAHN, F. y HOLLIS, M., (Comps.), 251-262; "Los tontos racionales:una crítica de los fundamentos conductistas de la teoría económica", en HAHN, F. y HOLLIS, M., (Comps.) 172-

53

consumidores y no al revés. La carga explicativa de la teoría, pasa de las preferencias,

metodológicamente sospechosas -ya que son inobservables-, a la elección o a la conducta de los

consumidores. Aunque puede ser expresada en forma de axiomas,36 la idea básica de la teoría

es que si el consumidor elige x, cuando podía haber elegido y, es decir, cuando y estaba dentro

de su restricción presupuestaria, entonces la opción x es revelada como preferida a y. Si el

consumidor cumple esta condición puede ser construida, a partir de ella, una ordenación de

preferencias (reveladas) completa, transitiva y continua, y lo que es más aún, pueden ser

derivados los resultados estándar de la teoría del comportamiento del consumidor con bastante

economía de medios. Samuelson se proponía «desarrollar la teoría del comportamiento del

consumidor libre de cualquier vestigio del concepto de utilidad»37 y, en ese sentido, tuvo una

buena acogida. Ejemplo de ello son las afirmaciones de I. Litlle «la nueva formulación es

científicamente más respetable (ya que) si una conducta individual es consistente entonces debe

ser posible explicar esa conducta sin referencia a ninguna otra cosa que la conducta» o J. R.

Hicks «la teoría econométrica de la demanda estudia a los seres humanos, pero solamente como

entidades que tienen ciertos modelos de conducta en el mercado, no reclama, no pretende, ser

capaz de ver dentro de sus cabezas».38

Pero la teoría de la preferencia revelada se enfrenta a tres objeciones básicas.39

CAPÍTULO I

217 y Sobre ética y economía. Madrid, Ed. Alianza Universidad, 1989.

40 Weak Axiom of Revealed Preference.

41 HAUSMAN, D., 1992, p. 20.

42 Tomado de DAVIS, M., Introducción a la teoría de juegos. Madrid, Ed. Alianza, 1971, p. 122.

54

En primer lugar, si un agente elige x sobre y, estando y disponible, y en una segunda

ocasión, elige y sobre x, estando x disponible, no quiere decir que el sujeto sea irracional; sus

gustos pueden haber cambiado, o puede ser indiferente entre x e y. Como afirma Hausman,

«juzgar si las elecciones de un individuo satisfacen el axioma débil de la preferencia revelada y

qué preferencias se revelan así, requiere examinar en cada caso una larga serie de elecciones

repetidas para determinar si x o y es siempre elegida y de este modo preferida, si la frecuencia de

elegir x e y es lo bastante cerrada como para ser igual a atribuir indiferencia o si el individuo viola

el WARP.40 Y existe todavía el problema de determinar si los gustos del agente han cambiado.

Es más fácil preguntar a la gente lo que prefiere».41

La ventaja de basarnos únicamente en las observaciones acerca de la conducta sin ningún

otro supuesto acerca de la misma, salvo la consistencia, parece escasa. La asunción fundamental

de la teoría es que los agentes revelan sus preferencias subyacentes a través de sus elecciones;

ello abre el camino a estudios empíricos de la demanda en el mercado, ya que lo único que

entraría en juego serían las conductas (observables) de los individuos. Pero la cuestión es que

se necesitan un número muy elevado de observaciones para poder contrastar cualquier hipótesis,

y, por otro lado, las observaciones han de transcurrir en un lapso de tiempo breve para evitar que

cambien los gustos pero, no tan breve, para que, citando a Sen, «la carne de cordero comprado

no esté todavía en la despensa».

En segundo lugar está el problema de las elecciones estratégicas. Esta cuestión es

ilustrada, tanto por Hausman como por Sen, a través del conocido juego «El Dilema del

Prisionero». En su versión original, de A.W. Tucker, la formulación es la siguiente:42 «Dos

sospechosos de haber cometido un crimen en complicidad son detenidos por la policía y

CAPÍTULO I

43 Se ha de tener en cuenta que Sen, en SEN, A., 1973, p. 249, utiliza unos valores distintos en su matriz Estosserían: diez años para cada uno en caso de confesión simultánea, libertad para el delator y veinte años para elque calla y dos años de prisión para cada uno en caso de que ambos permanezcan en silencio.

44 Ibídem, p. 251.

55

encerrados en celdas separadas. Cada sospechoso puede hablar o permanecer en silencio. Las

alternativas posibles son estas:

1) si un sospechoso habla y su cómplice no, el primero sirve de testigo acusador del otro,

al que le caerían veinte años de cárcel, mientras él quedaría en libertad.

2) Si ambos hablan, los dos irán a prisión por cinco años.

3) Si ambos permanecen callados, los dos van a la cárcel por un año, acusados de

tenencia ilícita de armas - un cargo menor-. La matriz del juego sería la siguiente.

Hablar Callar

Hablar (5 años,5 años) (libre, 20 años)

Callar (20 años, libre) (1 año, 1 año)

Tabla I

Es evidente que la estrategia dominante de cada prisionero es hablar, aunque con ello se

genere un resultado colectivo peor que si ambos hubieran prescindido del cálculo racional y

hubieran callado. Supongamos por un momento que los prisioneros dejan de calcular sólo su

propio interés, y están interesados en lo que pueda sucederle al otro. Consecuentemente optan

por callar. Y ahora imaginemos al observador intentando adivinar las preferencias subyacentes.

Es obvio que cada uno de ellos prefiere un resultado más que otro. Como dice Sen « ... cada uno

prefiere la consecuencia de su no confesión dada la confesión del otro, o la consecuencia de su

no confesión dada la confesión del otro. Pero de hecho nada de esto es verdad. El prisionero no

prefiere ir a prisión por veinte años mejor que por diez, no prefiere una sentencia de dos años a

ser libre.43 Su elección no ha revelado su preferencia en la forma postulada».44 Si la elección o la

conducta es estratégica, en este sentido, no revelará las preferencias de los agentes, con lo cual

CAPÍTULO I

56

se viola el supuesto fundamental de la teoría.

En tercer lugar, la teoría explica la acción en términos de preferencias tautológicas y

vacías. Con ello se refiere Hausman a que la teoría deja fuera de juego aquellas elecciones

determinadas por criterios morales, y no por la preferencia real del agente, real en el sentido de

aquella que hubiera tenido de no existir normas o criterios. Es decir, hay situaciones en que

normas sociales o morales constriñen la acción y determinan un resultado distinto que el que

hubiera resultado si el sujeto hubiera actuado en función de sus preferencias no de lo que le dicta

un código de conducta moral y social. Puede ser argumentado que la conducta guiada por

normas no entra en el terreno de explicación de la teoría económica, pero ha de entrar si la

elección de los consumidores depende de ello. Últimamente es bastante común observar que

muchas campañas publicitarias apelan a normas, como inducir a comprar productos ecológicos,

aunque tengan un mayor coste o campañas de boicot dirigidas a empresas que utilizan mano de

obra infantil, etc. Si bien ninguno de estos aspectos puede ser explicado por la teoría de la

preferencia revelada, también es cierto que no pueden ser explicados por los enfoques

propuestos.

Gran parte de estos problemas son comunes a la teoría de la preferencia revelada y a las

formulaciones que hemos visto en las páginas que anteceden, por lo que aplazaremos su

discusión hasta el capítulo final. Pero si hay que resaltar que la sencillez de dicha teoría es más

aparente que real, ya que podremos construir los mapas de indiferencia de un consumidor, ‘si’

sus gustos no cambian en el tiempo, ‘si’ contamos con un número suficientemente grande de

observaciones repetidas a lo largo del tiempo, ‘si’ determinamos el tiempo entre observación y

observación, ‘si’ los axiomas son aplicables, ... Como se ve, demasiados condicionantes.

5. LA INCERTIDUMBRE.

Se señaló en la introducción a este capítulo que los agentes eligen la mejor opción

disponible para la consecución de sus fines o la que creen que es la mejor opción. También se

señaló que dichas creencias vienen expresadas en una distribución de probabilidades acerca de

CAPÍTULO I

57

los estados posibles del mundo. Lo que se trata de describir aquí es el desconocimiento del

agente acerca de las posibles consecuencias de sus acciones. El ejemplo más sencillo lo

constituye el lanzamiento de una moneda, lo cual constituiría la acción del sujeto, y las dos

posibles consecuencias, cara o cruz. En este caso el agente puede otorgar probabilidad 1/2 al

resultado cara y probabilidad 1/2 al resultado cruz. Por convención, a los distintos resultados de

las acciones se les otorga una probabilidad que va de cero a uno; la suma de los índices de

probabilidad de las consecuencias de la misma acción no puede ser superior a uno. En el

desarrollo teórico que se ha venido exponiendo hasta aquí, podemos decir que la probabilidad

de la consecuencia de cada acción es igual a uno, o lo que es lo mismo, el agente tiene certeza

acerca de los resultados.

Los individuos establecen sus creencias a través de la recogida de información. Es la

información la que permite postular una distribución de probabilidades. Aquí la teoría se bifurca,

por decirlo de algún modo. Hay acciones, como el lanzamiento de una moneda o un dado que

ya tienen probabilidades asignadas, 1/2 y 1/6 respectivamente. En este caso, cuando el individuo

sabe las probabilidades objetivas de cada resultado, se habla de una situación de riesgo, cuando

las desconoce, por ejemplo, el resultado que puede dar la compra de un coche de segunda mano,

estamos en una situación de incertidumbre. Aquí es el individuo el que asigna probabilidades a

la ocurrencia de los fenómenos, en este sentido, las probabilidades son subjetivas y estamos en

una situación de incertidumbre. Son los estados de incertidumbre los que caracterizan

mayoritariamente a las elecciones en el terreno económico.

Una de las primeras dificultades con las que se enfrenta la teoría es determinar cuánta

información ha de recoger el sujeto para establecer una distribución de probabilidad confiable.

La información es un bien de naturaleza particular dado que no es posible determinar

anticipadamente los beneficios que se van a obtener de una unidad adicional de información, de

cara a que la creencia esté mejor formada, y los costes que la búsqueda de dicha información

genera. Tal y como afirma Elster: «Por una parte, existe el riesgo de reunir muy pocas pruebas.

CAPÍTULO I

45 ELSTER, J., 1990b, p. 34.

46 Savage (1954/1972:13-14). Tomado de GÄNDERFORS, P. y SAHLIN, N., «Introduction: Bayesian DecisionTheory -foundations and problems» en GÄNDERFORS, P. y SAHLIN, N., (eds.) Decision, Probability and Utility.Cambridge, Ed. Cambridge University Press, 1988, p. 2.

58

El médico debe examinar al paciente antes de operarlo para no cortar en el lugar equivocado. Por

otra parte, existe el riesgo de reunir excesivas pruebas. Si el exámen del médico es exhaustivo el

paciente puede morir».45 Si recogemos demasiado información acerca de una decisión de

inversión es posible que la oportunidad haya pasado cuando nos hayamos decidido. Para ver

como interrelacionan estos elementos, tal vez el mejor ejemplo sea el ya clásico de «la tortilla de

Savage»:

«Su esposa acaba de romper cinco buenos huevos en un bol cuando usted llega y

voluntariamente se ofrece a terminar de hacer la tortilla. Un sexto huevo, el cual por alguna razón

debe ser usado para la tortilla o gastado al mismo tiempo permanece sin romper al lado del bol.

Usted debe decidir que hacer con este sexto huevo que no ha sido roto. Quizás no sea demasiado

simplificar, decir que, debe decidir solamente entre tres actos llamados: romperlo en el bol que

contiene los otros cinco, romperlo en un plato para inspeccionarlo, o, tirarlo sin inspeccionarlo,

cada uno de estos actos tendrá consecuencias para usted».46

Tenemos, por tanto, los posibles estados del mundo, es decir, que el huevo esté bueno

o no, los posibles actos, romperlo en el bol, romperlo en el plato o tirarlo, y los resultados o

consecuencias de cada acción según el estado del mundo. La opción que elija el individuo

dependerá de su creencia acerca del estado del huevo y de la utilidad que le proporcione cada una

de las posibles consecuencias. Recuérdese que la utilidad depende de las preferencias del sujeto.

En este caso no es dificil suponer que el resultado preferido sea «tortilla de seis huevos», como

resultado de la acción «romperlo en el bol» en un estado del mundo en el que la creencia del

sujeto se vea confirmada y el huevo esté en buenas condiciones.

CAPÍTULO I

47 La fuente de la paradoja de San Petersburgo es un trabajo de Daniel Bernoulli en latín, traducido por SOMMER,L., «Exposition of a New Theory on the Measurement of Risk», Econometrica, vol. 22, núm, 1, pp. 23-36,1954.

59

ACTOS ESTADOS DEL MUNDO

Bueno Podrido

Romperlo en elbol.

Tortilla de 6 huevos. No hay tortilla y hadestruido 5 huevos buenos.

Romperlo en unplato.

Tortilla de 6 huevos y unplato para lavar.

Tortilla de 5 huevos y unplato para lavar.

Tirarlo. Tortilla de 5 huevos y unhuevo bueno destruido.

Tortilla de 5 huevos.

Tabla II

La cuestión es ¿cómo se introducen las creencias del individuo en la toma de decisiones

de forma que éste maximice la utilidad y se cumplan los axiomas que hemos establecido? Tal vez

la mejor forma para responder a esta pregunta sea hacer un poco de historia.

El desarrollo de la teoría de la probabilidad, referido a las elecciones, durante el S. XVII

afirmaba que el atractivo de un juego era el valor esperado del mismo, dependiendo éste del valor

de los premios, ponderado por la probabilidad de obtenerlos. Así, el valor esperado de una

apuesta que ofrece ganar 10.000 ptas. con probabilidad 0.2 y perder 1000 ptas. con probabilidad

0.8 es de 1.200 ptas. (V = 10.000 x 0.2 + -1000 x 0.8). Este enfoque fue puesto a prueba y

abandonado debido a una paradoja planteada por N. Bernouilli en 1728 conocida como la

«Paradoja de San Petersburgo».47

N. Bernouilli propuso el siguiente juego: un individuo A, lanza al aire una moneda y otro

individuo B se compromete a pagarle un ducado si sale cruz al primer lanzamiento, dos ducados

si sale al segundo, cuatro si sale al tercero, ocho si no sale hasta el cuarto... La pregunta que se

plantea es: ¿cuánto estaría dispuesto a pagar el individuo A por participar en el juego? Una

hipótesis preliminar puede ser que ningún individuo estaría dispuesto a pagar por participar en

un juego si ese pago es superior al valor esperado del juego. El valor esperado de un juego es,

CAPÍTULO I

48 Considerar la utilidad esperada como una función aditiva tiene importantes consecuencias, como veremos másadelante.

49 GÄNDERFORS, P. y SAHLIN, N., 1988, pp. 3-5.

60

como ya vimos, la cantidad promedio que un jugador puede obtener con el juego (se obtiene

calculando la suma de los precios multiplicado por las respectivas probabilidades). Pues bien, en

el caso del juego de Bernouilli el valor del juego era infinito dado que: 1/2 x 1 + 1/4 x 2 + 1/8 x

4 + 1/16 x 8 ...... = 1/2 + 1/2 + 1/2 + 1/2 ..... Pero el mismo Bernouilli afirmó, al plantear la

paradoja, que ningún hombre discreto pagaría más de 20 ducados.

La solución propuesta por Bernouilli consistió en afirmar que el individuo no intenta

maximizar sus pagos medios, sino su utilidad esperada, siendo una de las definiciones de esta:48

la utilidad esperada es la suma de las utilidades, suministradas por los premios, multiplicadas por

las probabilidades respectivas, siempre y cuando la utilidad esté limitada por arriba, es decir, que

alcance un valor finito crezca lo que crezca la riqueza.

El planteamiento de Bernouilli permanece olvidado hasta el S. XX y una de sus primeras

reformulaciones corresponde a T. Bayes.49

Los estudios de éste se referían básicamente a la posibilidad de inferir la probabilidad

desde la inferencia empírica. Muy a grandes rasgos: entendamos por el símbolo P(A/B) la

probabilidad de que A sea verdad dado que B es verdad. Supóngase que se sabe que una de las

hipótesis mutuamente exclusivas, B1, ..., Bn es verdad, y supóngase que ha ocurrido un hecho A.

Entonces la probabilidad de la hipótesis Bi, dada la evidencia A, es dada por: P(BI / A) = P (A/BI

P (BI) / [ Σ nI=1 P( A/Bi ) P (Bi)].

Las probabilidades a posteriori P(Bi/A) dependen por tanto de las probabilidades a

priori P(Bi) de las varias hipótesis y de las probabilidades P (A/Bi) de la ocurrencia del hecho

observado A bajo las varias hipótesis. Las probabilidades a priori son juicios inciertos sobre la

probabilidad de las diversas hipótesis a la luz de la información pasada; las probabilidades a

CAPÍTULO I

50 Para los distintos enfoques acerca de como relacionar probabilidad y creencia ver, ARROW, K. J., «AlternativesApproaches to the Theory of Choice in Risk-Taking Situation». Econometrica, 19, 1951, pp. 404-437.

61

posteriori serían los juicios hechos a la luz de la nueva información.50 Lo que se está afirmando

es que el individuo, a la hora de formar su creencia, tiene en cuenta tanto la información pasada,

acerca de hechos similares al que se le plantea, como la nueva información. La cuestión obvia

es qué ocurre cuando los hechos o las situaciones de elección son completamente nuevas, cómo

forma entonces el individuo su creencia. En estos casos todo dependerá de la nueva información.

Cuatro son los principales postulados en la teoría bayesiana:

A1. Valor de los resultados: el valor de los resultados en una situación de decisión es

determinado por una medida de la utilidad, la cual asigna valores numéricos a los resultados. El

propósito de la medida de la utilidad no es solamente el orden de las preferencias entre los

posibles resultados, sino también las diferencias numéricas asignadas a los resultados; tendríamos

por tanto una medición cardinal de la utilidad, en el sentido anteriormente planteado.

A2. Valores de las alternativas: cuando se determina el valor de una decisión alternativa,

la única información relevante es la utilidad de los posibles resultados de la alternativa.

A3. Información acerca de los estados del mundo: las creencias de un decisor acerca de

los estados del mundo, en una situación dada, puede ser representada por una medida única de

probabilidad definida sobre esos estados. Estos valores de la probabilidad son probabilidades

subjetivas, en el sentido de que se derivan totalmente de la información personal del decisor

acerca de los estados del mundo.

A4. Independencia probabilística: para todos los estados y todas las alternativas, la

probabilidad del estado es independiente del acto elegido. Muy grosso modo esto significaría

que la probabilidad de que llueva no aumenta cuando usted decide lavar el coche.

A partir de estos cuatro postulados podemos definir el principio de maximización de la

utilidad esperada. En una situación de decisión dada el decisor elegirá la alternativa con utilidad

esperada máxima.

CAPÍTULO I

51 SAVAGE, L., "The Theory of Statistical Decision" American Statistical Association Journal, 46, pp. 57-67,1951 y del mismo autor The Foundations of Statistic,Nueva York, Ed. John Wiley, 1972.

62

Uno de los principales intentos de fundamentar la teoría bayesiana corre a cargo de L.

Savage,51 cuyo principal axioma es el principio de la cosa segura: la elección entre dos alternativas

no debe ser afectada por el valor de los resultados correspondientes a estados para los cuales

ambas alternativas tienen el mismo pago. En la matriz que viene a continuación (tabla III), S son

los estados posibles del mundo y a las distintas acciones. La intersección de la fila y la columna

refleja el pago que obtendrá el sujeto con cada acción dependiendo del estado del mundo que

se produzca. Como se ve, el resultado de a1 y a2 es el mismo para el estado 3, y el resultado de

a3 y a4 para el estado 3 también es el mismo. Más allá aún, a1 tiene los mismos resultados que

a3 salvo en el estado 3. En una situación como esta, el principio de la cosa segura requiere que

si a1 es preferida a a2, entonces a3 es preferida a a4.

S1 S2 S3

a1 $ 4000 $ 0 $ 0

a2 $ 3000 $ 3000 $ 0

a3 $ 4000 $ 0 $ 3000

a4 $ 3000 $ 3000 $ 3000

Tabla III

Savage usa una relación binaria entre pares de alternativas del tipo es preferida o

indiferente, de ahí el interés por su fundamentación, y muestra, en primer lugar, que existe una

medida de probabilidad subjetiva P, definida sobre los posibles estados del mundo, la cual

representa los grados de creencia del decisor y, en segundo lugar, que existe una medida de la

utilidad u, definida sobre los posibles resultados, tal que la utilidad esperada de las decisiones

alternativas está exactamente reflejada por la ordenación de preferencias supuesta, y que el

individuo, al igual que en contextos de certeza, elige aquella alternativa cuya utilidad es máxima,

con la salvedad que en contextos de incertidumbre la utilidad viene ponderada por la probabilidad

de ocurrencia del suceso.

CAPÍTULO I

52 VON NEUMAN, J., y MORGENSTERN, O., Theory of Games and Economic Behaviour. Princeton, Ed. PrincetonUniversity Press, 1944.

63

5.1. LA MODERNA TEORÍA DE LA UTILIDAD.

Uno de los trabajos que más influencia ha tenido a lo largo del S. XX en el pensamiento

económico fue la obra de J. Von Neumann y O. Morgenstern.52 En esta obra se parte de una

crítica radical a la teoría walrasiana del equilibrio general dado que ésta no atiende a como las

decisiones del resto de los agentes forman un componente esencial de la decisión individual en

el proceso de maximización. El libro aborda multitud de temas económicos, pero el que nos

interesa aquí es el concepto de una función de utilidad que guía las elecciones de los agentes en

ausencia de certidumbre. El tratamiento realizado por los autores se ha convertido en prototipo

en los libros de texto sobre teoría de decisión y en el tratamiento ortodoxo de la incertidumbre

dentro de la teoría económica.

El trabajo de Von Neumann y Morgenstern continúa en la línea de proporcionar una

fundamentación al principio de la utilidad esperada. Imponiendo una serie de axiomas, que han

de cumplir las ordenaciones de preferencia de los agentes, es posible construir una función de

utilidad que asigna números reales a la utilidad de las alternativas, postulándose que el individuo

se comportará como si maximizara su utilidad esperada.

Es necesario hacer una aclaración importante. Dentro de la teoría del comportamiento del

consumidor, y más concretamente del enfoque de la utilidad marginal, se ha establecido la

existencia de una función de utilidad, que nos proporciona una medición de la misma en sentido

cardinal y se ha establecido asimismo el supuesto del equimarginalismo y el supuesto del

principio de utilidad marginal decreciente. La teoría de Von Neumann y Morgenstern se relaciona

con la construcción de la función de utilidad, el resto de los supuestos permanece igual. Por tanto

no estamos en presencia de una nueva teoría de comportamiento del consumidor, sino en una

reformulación de las herramientas matemáticas que nos permiten describir las elecciones

individuales, en la forma postulada en contexto de certeza, cuando existe incertidumbre.

CAPÍTULO I

53 GREEN, H. A. JOHN, 1986, pp. 218-219.

64

La teoría de la utilidad esperada nos dice que el conjunto de elección está compuesto por

una serie de expectativas; cada expectativa se define por un número de objetos que llevan

asociados una probabilidad. Una forma sencilla de verlo es a través de un juego de apuestas. Una

expectativa podría ser una apuesta con 1/5 de probabilidad de ganar 10.000 pesetas y 4/5 de

perder 1.000 pesetas.

y = (x, x’; p, 1 - p) = (10.000, - 1.000; 1/5, 4/5).

Otra expectativa sería: y’ = (x’’, x’’’; p, 1 - p) = (15.000, - 3.000; 1/3, 2/3).

«La hipótesis de la utilidad esperada puede formularse del modo siguiente. Para un

individuo determinado y para cualquier expectativa -por ejemplo, y’’’ = (y, y’, y’’; π, π’, 1 -π -

π’)- se puede relacionar con cada una de las expectativas componentes, y, y’, y’’, un número real,

f(y), f(y’), f(y’’). La utilidad esperada de la expectativa y’’’ puede obtenerse sumando estos

números, después de multiplicar cada uno por su respectiva probabilidad, esto es, π f(y) + π’

f(y’) + (1 - π - π’) f(y’’). De dos expectativas cualesquiera, la que tenga mayor utilidad esperada,

según hemos definido la utilidad, estará más alta en el orden de preferencias del individuo en

cuestión».53

Veamos la axiomática de esta elección:

- Axioma de ordenación. El individuo tiene una ordenación de preferencias débil, completa y

transitiva sobre todas las alternativas.

- Axioma de continuidad. Si la ordenación de preferencias del sujeto es aPbPc, siempre ha de

ser posible encontrar un valor de p que cumpla b I (a, c; p, 1 - p). Es decir, hay una mezcla

probabilística entre la mejor y la peor de las alternativas, que la hace indiferente a la alternativa

que queda en medio. Esto a su vez nos proporciona una técnica para medir la utilidad. Veámoslo

a través de un sencillo ejemplo numérico: supongamos la anterior ordenación de preferencias,

aPbPc, ahora otorguemos un valor de utilidad a b y c, por ejemplo 4 y 3; el único requisito que

han de cumplir estos índices es respetar el orden de preferencias del sujeto. A continuación se

CAPÍTULO I

54 GREEN, H. A. JOHN, 1986, p. 225.

65

le pregunta al sujeto qué probabilidad haría que fuera indiferente entre una mezcla probabilística

de la mejor y la peor alternativa, respecto a la alternativa que queda en medio, y supongamos que

contesta p = 0.7. Si b I (a, c; p, 1 - p) esto quiere decir que la utilidad de b es igual a la utilidad de

a más la utilidad de c multiplicada por sus respectivas probabilidades. Recordemos que esa

igualdad sólo se cumple si p = 0.7, por tanto: U( b) = U( a) • 0.3 + U( c ) • 0.7. Sabemos que la

utilidad de b es 4 y la de c 3 por tanto la utilidad del juego sería igual a 4 = 0.7 • U( a) + 0.3 • U( c).

Si ahora despejamos U(a) tendremos:

U(a) = (4 - 0.9) / 0.7 = 4.4

Aunque el origen y las unidades de escala continuan siendo arbitrarias hemos obtenido

una medición cardinal de la utilidad en el sentido de que cualquier transformación de la función

de utilidad ha de respetar los cocientes de las diferencias de utilidad entre las alternativas. Es

decir, la técnica nos proporciona una medida de la utilidad pero sólo en este sentido. Una cita de

Green nos ayudará a aclarar lo que no es la utilidad cardinal: «Algunos autores parecen interpretar

la utilidad cardinal en el sentido de que significa que la utilidad de determinado objeto o manojo

de bienes es, digamos, 10, ni más ni menos, sin monsergas acerca de las transformaciones. Otros

la conciben como una medida con un cero bien definido, de forma que en la transformación

u*=a+bu el origen es a=0, y tenemos una transformación proporcional creciente (...) La utilidad

cardinal, con arreglo a esta interpretación, sería como el peso (peso en kilogramos = 2,2 veces el

peso en libras) o la distancia (distancia en pulgadas = 39,37 veces la distancia en metros)».54 Tal

y como ha sido formulada en este trabajo la medición de la utilidad sería como la de la

temperatura.

- Axioma de independencia. si aPb o aIb siendo c cualquier otra opción debe cumplirse para

cualquier valor de p que:

(a, c; p, 1 - p) R (b, c; p, 1 - p)

Si la ordenación de preferencias de los agentes cumple estos axiomas, existe un conjunto

CAPÍTULO I

55 El lector puede estar pensando que el sujeto apostará siempre, pues gane lo que gane, siempre ganará algo,o las 125.000 o las 25.000; pero no olvidemos que apostar nunca es gratis y que para entrar en un juegodebemos pagar primero. ZAPATERO, J. C., 1987, p. 115, define el juego justo como aquel cuyo valor esperadoes igual al precio que se debe pagar por participar en él; si el valor esperado es superior al precio, estaríamos

66

de números reales u(a), u(b), u(c), ..., tal que dadas dos expectativas por ejemplo y (a, b; p, 1 -

p) e y’(c, d; p’, 1 - p’) yRy’ si y sólo si, pu(a) + (1 - p)u(b) ≥ p’u(c) + (1 - p’) u(d).

5.2. LA FORMA DE LA FUNCIÓN DE UTILIDAD ESPERADA.

Al igual que en un contexto de certeza, se postula que la forma de la función de utilidad

obtenida a partir de estos axiomas es cóncava. Pero en este caso la teoría va un poco más allá,

se postula una relación entre la forma de la función de utilidad y algunas características

psicológicas de los sujetos. Las características psicológicas se refieren a la preferencia,

indiferencia o aversión de los sujetos en cuanto al riesgo, es decir, distintas actitudes hacia el

riesgo implican formas distintas de la función de utilidad. Veamos en qué forma es esto

postulado.

5.2.1. ACTITUDES HACIA EL RIESGO.

La teoría nos dice que una persona es aversa al riesgo si prefiere una ganancia x, de forma

segura, a participar en un juego cuyo valor esperado sea x. Supóngase que se le ofrece 55.000

ptas. seguras o la posibilidad de lanzar una moneda al aire y llevarse 100.000 ptas. si sale cara y

10.000 ptas. si sale cruz. El valor esperado de este juego es exactamente 55.000 ptas., por tanto

si usted prefiere las 55.000 ptas. seguras usted será, según la teoría, una persona aversa al riesgo.

En la teoría de la utilidad esperada la aversión al riesgo es equivalente a la concavidad de la

función de utilidad.

Una forma alternativa de ver la actitud hacia el riesgo es a través de las definiciones de

juego justo, favorable y desfavorable. El sujeto disfruta de una renta cierta R de digamos 75.000

y se le ofrece la posibilidad de ganar 125.000 con una probabilidad p y 25.000 con una

probabilidad (1-p).55 Se dice que el juego es justo,56 favorable o desfavorable según el valor

CAPÍTULO I

ante un juego favorable y si es inferior, ante uno desfavorable.

56 A modo de anécdota, podríamos decir que el cupón de la O.N.C.E sería un juego justo e incluso favorable.El valor esperado obtenido fue de 95 ptas., pero se omitieron en el cálculo los premios al número anterior yposterior, dado que no aparecían reseñados en el reverso del cupón. En el momento del cálculo el valor delcupón era de 100 ptas. Un aspecto curioso a resaltar, sería que la publicidad que se realiza para la compra delcupón no hace referencia a que éste sea un juego justo o incluso favorable, sino a la cuantía de los premioscon una inversión minúscula; por otro lado, es dudoso que los habituales compradores del cupón hayan jamáscalculado el valor monetario esperado del juego.

57 GREEN, H. A. JOHN, 1986, p. 229.

67

esperado de la apuesta sea igual, mayor o menor que R. En nuestro ejemplo si p= 1/2 el juego

es justo, si p= 3/4 estaríamos ante un juego favorable y si p=1/4 sería un juego desfavorable. Al

igual que en nuestra anterior definición, se dice que un individuo siente aversión por el riesgo si

rechaza una apuesta igualada y siente preferencia por el riesgo si la acepta. Pero aún no hemos

dicho nada acerca de la función de utilidad ni de su forma, para ello lo mejor será apropiarnos del

ejemplo de Green.57

«Supongamos que un consumidor con un patrimonio de 10 libras es invitado a lanzar al

aire una moneda sin defectos: si sale cara, gana 1 libra; si sale cruz, pierde 1 libra. La expectativa

incierta es (L11, L9; 1/2, 1/2) y la apuesta es claramente igualada. ¿Aceptará la apuesta?

... Dados u(9) y u(11), y dados π=1-π=1/2, podemos marcar la utilidad esperada de la

alternativa que el consumidor afronta si acepta la apuesta. Es igual a 1/2u(9) + 1/2u(11), la altura

sobre el eje de W del punto medio E de la recta que une los punto D y F. El punto E se encuentra

justo encima del punto del eje W que representa W=10, la cantidad de riqueza que el consumidor

tendrá con certeza si rechaza la apuesta ...

... Aceptará la apuesta, demostrando así preferencia por el riesgo, si la utilidad de 10

unidades de riqueza está representado por un punto como P, que se encuentra por debajo de E,

de modo que u(10<1/2u(9) + 1/2u(11)). Rechazará la apuesta, demostrando aversión por el

riesgo, si la utilidad de 10 unidades de riqueza se representa por A, que se encuentra por encima

de E».

CAPÍTULO I

58 Cómo se ha señalado y se verá nuevamente en el capítulo segundo esto tuvo importantes repercusiones parala fundamentación de una economía del bienestar de corte utilitarista, en el sentido que justificaría lostrasvases de renta de los más favorecidos a los menos, ya que si la utilidad que proporciona el dinero aumentacon una tasa de incremento decreciente un trasvase de renta maximizaría la utilidad total.

59 La economía del bienestar de corte utilitarista sostiene como uno de sus principales postulados que debemaximizarse la utilidad total de la sociedad.

68

Figura XI

Si seguimos la gráfica del ejemplo anterior (figura XI) tenemos que, si el sujeto siente

aversión por el riesgo, su curva de utilidad es cóncava, mientras que si siente preferencia por el

riesgo, su curva de utilidad es convexa. Esto tiene importantes consecuencias teóricas pues en

el primer caso la utilidad marginal, recuérdese que la definíamos como Mu/MW (en este caso sería

el incremento de la utilidad dividido por el incremento de la renta), dada la concavidad de la

curva, es decreciente y creciente en el caso de las curvas convexas, lo que implicaría que los

sujetos con aversión al riesgo tienen utilidad marginal decreciente, mientras que los sujetos que

sienten preferencia por el riesgo tienen 58 utilidad marginal creciente de la riqueza. ¿Qué quiere

decir esto?

Si se admite que la forma de la función de utilidad refleja características psicológicas del

sujeto, significa que, para aquellos que tienen utilidad marginal decreciente, la segunda unidad

monetaria ganada aporta menos satisfacción que la primera, la tercera que la segunda, ... etc.59

Como se vió en el enfoque de la utilidad marginal para postular el principio de utilidad marginal

decreciente era necesario sostener que la función de utilidad era aditiva, es decir, que la utilidad

CAPÍTULO I

69

de una cesta de bienes era el resultado de la utilidad del primer bien, más la utilidad del segundo,

más la del tercero, etc, sin que puedan existir complementariedades entre los bienes, es decir, la

utilidad de un bien es independiente de la utilidad del resto de los bienes. Si queremos mantener

las propiedades de la utilidad esperada la forma de la función de utilidad ha de ser aditiva. En este

caso hay dos posibles enfoques: en primer lugar, los que afirman que la forma de la función de

utilidad, en este caso cóncava, es resultado únicamente de la forma aditiva de definir la utilidad

esperada sin que tenga ninguna implicación de cara a poder observar como aumenta o disminuye

la satisfacción de los consumidores con unidades adicionales de bienes, es decir, es resultado de

la técnica matemática utilizada para su derivación. Y en segundo lugar, los que afirman que si un

individuo presenta una función de utilidad cóncava ello implica que psicológicamente es averso

al riesgo. Es decir, la curvatura de la función de utilidad mide la actitud del consumidor hacia el

riesgo. No hay evidencia empírica que nos ayude a decantarnos por uno u otro enfoque, todo

dependerá de la validez que se le otorgue al principio de utilidad marginal decreciente.

Los desacuerdos teóricos se refieren más a cuestiones de detalle que a la teoría como una

forma de explicar las elecciones bajo incertidumbre. La teoría de la utilidad esperada viene a

salvar a la teoría del comportamiento del consumidor del colapso ya que la ausencia de

información o las dificultades de los agentes para tratar con la incertidumbre imposibilitaban la

ordenación de las alternativas y la construcción de la función de utilidad, requisitos

imprescindibles dentro de la teoría o del marco del equilibrio general, mientras que ahora

contamos con una forma de dar cuenta de las elecciones cuando las alternativas tienen

consecuencias inciertas.

El problema de la incertidumbre no es el único capaz de colapsar la teoría; todavía ha de

enfrentarse a otra dificultad, la interacción de dos o más agentes y cómo esto influye en la

consecución del equilibrio.

CAPÍTULO I

60 DEBREU, G., 1973.

61 FRIEDMAN, M. y R., Libertad de elegir. Barcelona, Ed. Planeta, 1993, p. 37.

70

6. LA INTERACCIÓN CON LOS OTROS: EL NACIMIENTO DE LA TEORÍA DE JUEGOS.

En 1959 es publicado Theory of Value escrito por G. Debreu. En esta obra se recupera el

enfoque teórico de la tradición walrasiana pero apoyándose en el instrumental matemático ideado

por J. Von Neumann. Debreu después de una exposición magistral del modelo de

comportamiento del consumidor en condiciones de certeza, en una nota a pie de página

reconoce: «Debe subrayarse que el presente análisis no cubre el caso en que el conjunto de

consumo de un consumidor y/o sus preferencias dependen de los consumos de otros

consumidores (y/o de las producciones de los productores)».60 Por tanto la teoría tenía que ser

reformulada para cubrir aquellos casos en lo que se violaban las condiciones de la competencia

perfecta.

La competencia perfecta supone un número de productores y consumidores tal que las

variaciones en producción o consumo de cada uno de ellos, tomado de forma aislada, no supone

una variación en los precios, es decir, productores y consumidores no tienen capacidad para

afectar a los precios actuando de forma individual. Es claro, por tanto, que monopolios y

oligopolios rompen con las características del equilibrio general. Pero es la aparición de

oligopolios lo que hace que la Teoría de Juegos sea una herramienta fundamental del análisis

económico, ya que, cada uno de los oligopolistas de un producto dado, habrá de tener en cuenta

precios y cantidades del resto de los productores, para poder establecer precio y cantidad de

producción. Sabemos que la renta del productor viene dada por la diferencia entre lo que cobre

por la venta de su producto y el importe de producirlo, «coloca una contra la otra y produce hasta

un punto en el cual producir una unidad suplementaria le costaría tanto como lo que obtendría

por la venta de dicha unidad».61 Bajo competencia imperfecta tiene que tener en cuenta, no sólo

precios y cantidades en el margen, sino también producción y precios de los distintos

competidores.

CAPÍTULO I

62 Nos ocuparemos de las características de los juegos cooperativos en el capítulo II, dedicado a la elecciónsocial.

63 NASH, J., Essays on Game Theory. Cheltenham, Ed. Edward Elgar, 1996.

71

La teoría de juegos nace en 1944 con la publicación, por parte de Von Neumann y

Morgenstern, del ya clásico The Theory of Games and Economic Behavior. El interés de los

autores, estribaba básicamente en el proceso de adopción de decisiones describiendo el influjo

que las interacciones recíprocas con el resto de los individuos tienen en el proceso de elección

individual. Una forma de describir un oligopolio es mediante lo que denominaron juegos

competitivos o de suma cero, donde lo que gana un jugador forzosamente ha de perderlo el otro.

En el oligopolio tenemos que una mayor cuota de mercado, para un productor, supone una

menor para alguno o algunos de los otros oligopolistas, dada una producción constante. En lo

que respecta a los juegos cooperativos, de los que se ocupan en la segunda parte del libro, dada

la dificultad de encontrar estrategias óptimas o soluciones óptimas los autores se proponen

clasificar los posibles modelos de formación de coaliciones.62 Aportaciones posteriores,

especialmente de J. Nash,63 con su propuesta de generalización del equilibrio de los juegos de

suma cero a los juegos de suma variable, amplian el campo y la potencia de la Teoría de Juegos.

En este apartado no haremos sino un breve repaso de las características de la teoría, dada

su complejidad y los desarrollos que ha sufrido en las últimas décadas. Nos centraremos

básicamente en la tipología de los juegos, en la selección de estrategias óptimas, con especial

hincapié en el teorema del minimax, y en la consecución del equilibrio partiendo de esas

estrategias. Así, lo que pretende la teoría es encontrar una solución a juegos, o interacciones,

donde las partes tienen intereses encontrados y a veces objetivos comunes. Por ejemplo un

vendedor y un comprador tienen intereses encontrados; cada cual intentará obtener el precio más

conveniente para él; pero también tienen objetivos comunes, que la venta o la compra se realice.

Esta solución es una descripción de lo que cada jugador debería hacer, su estrategia, y de

cual será el resultado de sus acciones, los pagos o las penalizaciones que recibirá.

CAPÍTULO I

64 ELSTER, J., 1990b, p. 29.

72

Veremos los juegos en función del número de jugadores: juego bipersonales y juegos de

n personas y en función de si los intereses de los jugadores son diametralmente opuestos, caso

de los juegos de suma constante o suma cero, o pueden existir estrategias cooperativas.

6.1. REPRESENTACIÓN DE LOS JUEGOS.

Las reglas de un juego deben decirnos quién gana, qué, y cuándo puede hacerlo. También

debe indicarnos cuánto gana cada uno cuando el juego ha terminado. La estructura utilizada en

teoría de juegos para expresar esta información se llama árbol. La primera jugada de un juego se

identifica con un nodo -especialmente marcado- del árbol del juego: este se suele llamar la raíz

del árbol. Una partida del juego consiste de una cadena conexa de aristas que empiezan en la raíz

del árbol y terminan, si el juego es finito, en un nodo terminal.

El gráfico (figura XII) representa el siguiente juego. «En este juego es I el que se mueve

primero. Él puede concluir el juego moviéndose a la izquierda, caso en el que ambos obtienen

una recompensa de 3, o moverse a la derecha, caso en que II tiene el movimiento siguiente. En

ese caso II puede asegurarse 2 para sí y 4 moviéndose a la izquierda mientras que si se mueve a

la derecha ambos obtienen 1. Es obvio que si II es racional se moverá a la izquierda. También si

I es racional y sabe que puede estar seguro de la racionalidad de II se moverá a la derecha. Pero

debe observarse que el resultado (4;2) no es lo que II preferirá. El preferirá que I se mueva a la

izquierda con el resultado (3;3). Un modo en que II puede lograr este objetivo es eliminar su

opción de ir a la izquierda en la segunda etapa. En este caso I sabe que el resultado de ir a la

derecha será (1;1). Pero para evitar eso él va a la izquierda».64

CAPÍTULO I

73

Figura XII

Otra forma de representar un juego es a través de la matriz de pagos. Ésta nos da menos

información acerca de las sucesivas secuencias de decisión, pero resultan mucho más simples.

La matriz de pago del ejemplo de Elster sería:

Izquierda Derecha

Izquierda 3, 3 3, 3

Derecha 4, 2 1, 1

Tabla IV

6.2. JUEGOS BIPERSONALES DE SUMA CERO.

Los juegos de suma cero son de naturaleza tal que, en su transcurso, no se crea ni se

destruye riqueza. En un juego de suma cero los recuadros en cada casilla suman cero. Es decir,

lo que gana un jugador lo pierde el otro, de ahí que solo haya un número en cada casilla. Sería

redundante poner los pagos del jugador II, aunque el problema de obviarlo es que se puede

olvidar que I esta intentando maximizar los pagos, mientras II intenta minimizarlos. Veámoslo

con una matriz que es la forma que utilizaremos para representarlo.

I II III

A 7 9 8

B 9 10 12

C 8 8 8

Tabla V

CAPÍTULO I

74

Usted escoge una fila (A, B, o C) y su contricante elige al mismo tiempo una columna,

de forma que ninguno de los dos conoce cual es la elección del otro en el momento en que tiene

que tomar su decisión. El número que figura en la intersección de la fila, que usted haya elegido,

y de la columna que haya seleccionado su contrario, será la cantidad de dinero que le tendrá que

pagar su contrincante. ¿Qué elegiría usted?

La mejor opción a su disposición sería elegir B, puesto que B maximiza los pagos que su

contrincante le hará, es decir, elija lo que elija él, siempre saldrá ganando si elige B. Pero,

¿podemos llegar a determinar lo que elegiría él?

Sí, podemos predecir que su contricante elegirá I, ya que los resultados serán como

mínimo iguales a los que obtendría con II y con III y, en ocasiones, mejores. El valor del juego

será 9, que es lo máximo que podrá conseguir con los presupuestos de que su contrincante

intentará minimizar los pagos mientras usted intenta maximizarlos.

Estas son estrategias de equilibrio y puntos de equilibrio. Se dice que dos estrategias están

en equilibrio cuando ninguno de los jugadores mejora su posición si cambia unilateralmente de

estrategia. El resultado del juego, denominado pago, que corresponde a este par de estrategias,

es el que define el punto de equilibrio, que en nuestro ejemplo es (B,1) siendo 9 el pago

correspondiente. Si un juego tiene un punto de equilibrio, es fácil seleccionar las estrategias

adecuadas y anticipar el resultado. Pero ¿cómo seleccionamos las estrategias? Aquí interviene

los que V. Neumann y Morgenstern llaman dominancia.

Podemos simplificar el juego eliminando las estrategias dominadas, es decir, aquellas que

son inferiores, que nos proporcionarán un pago inferior a aquel que realmente podemos obtener.

En nuestro ejemplo la estrategia B domina tanto a la A como a la C, porque, para cualquier

posible elección del contricante, con B siempre conseguiría un pago mayor. Para su contricante,

la estrategia I minimiza, o iguala, en el peor de los casos, los pagos, así I domina a II y III.

CAPÍTULO I

75

6.3. MINIMAX Y MAXIMÍN.

Veamos otro forma de descubrir los puntos de equilibrio del juego:

t1 t2 t3

s1 0 1 7

s2 4 2 3

s3 9 0 0

Tabla VI

Sabemos que el jugador t intenta maximizar sus pagos, mientras que el jugador s intenta

minimizarlos. ¿Cuáles son los mayores pagos que puede conseguir t? Nueve, si elige t1, dos si

elige t2 y siete si elige t3. Por tanto, sus máximos son 9, 2, 7. Mientras, que los menores pagos

de s son 0, 2, 0. La estrategia del jugador t será asegurar el mínimo de esos máximos. Dicha

estrategia se denomina minimax, mientras que el jugador s se conformará con otorgarle el

máximo de sus mínimos, su estrategia se denomina maximín. Si el minimax y el maximín

coinciden, tendremos un punto de equilibrio o punto de silla.

minimax = min (9,2,7) = 2

maximín = max (0,2,0) = 2

La estrategia elegida será (s2,t2) y 2 el punto de equilibrio.

Si la matriz de pagos tiene un punto de silla, entonces el nivel de seguridad, mayor pago

esperado que puede asegurarse independientemente de lo que haga el contrario, del jugador I es

minimax = maximín y s2 en este caso será su estrategia de seguridad.

El teorema del minimax establece que se puede asignar un valor V a todos los juegos

finitos bipersonales de suma cero, representando este valor la cantidad media que puede esperar

ganar el jugador I del jugador II, si ambos actúan ‘sensatamente’. Ello por tres razones.

1) Existe una estrategia para el jugador I que protegerá está ganancia, y contra ella nada

de lo que pueda hacer el jugador II impedirá que I obtenga como media V. Por tanto, el jugador

I no se conformará con algo que le ofrezca menos que V.

CAPÍTULO I

65 En los juegos de suma variable o suma no-nula, el primer número de cada casilla representa el pago deljugador que juega columna, en el ejemplo, el jugador t, mientras el segundo número representa lo que obtieneel jugador que juega fila, en este caso el jugador s.

76

2) Existe una estrategia para el jugador II que le garantiza que no perderá como media

más del valor de V, es decir, que puede evitar que el jugador I consiga más de V.

3) Por definición el juego es de suma cero, y lo que gane el jugador I tiene que perderlo

el II. Puesto que el jugador II pretende minimizar sus pérdidas estará interesado en limitar las

ganancias medias de I a V.

El teorema del minimax es aplicado a los juegos de suma cero ya que, en estas

situaciones, ponerse en el peor de los casos sería la estrategia adecuada, dado que el otro jugador

intentará minimizar los pagos. Ahora bien el uso de estrategias de seguridad ha sido ampliado a

juegos de suma no nula o suma constante. La matriz anterior formaba parte de una matriz de

suma constante que era la siguiente:65

t1 t2 t3

s1 0, 1 1, 2 7, 3

s2 4, 6 2, 0 3, 2

s3 9, 0 0, 3 0, 4

Tabla VII

Para calcular su nivel de seguridad un jugador tiene que realizar su análisis poniéndose

en el peor de los casos: «Supongamos que John y Mary son los protagonistas de un juego de dos

jugadores. Para calcular su nivel de seguridad, John debe preguntarse qué haría en la hipótesis

paranoica de que Mary va a predecir su estrategia y actuará para minimizar el pago de John. La

estrategia que John escogería en esta hipótesis paranoica se llama una estrategia de seguridad. Así

si John usa una de sus estrategias de seguridad, se asegura un pago por lo menos igual a su nivel

de seguridad.

Supongamos que John es el jugador I y Mary la jugadora II (...) Al ponerse en el peor de

los casos John puede razonar de la manera siguiente. Si él empieza por escoger la fila s1, entonces

CAPÍTULO I

66 BINMORE, K., Teoría de juegos. Madrid, Ed. McGraw-Hill, 1993, p.221.

77

Mary puede olvidarse de su propio bienestar para poder minimizar el de John. En este caso, ella

escogería a continuación la columna t1. Entonces John conseguirá un pago 0. Si John empieza

con la fila s2 Mary le seguirá con la columna t2 y el pago de John será 2. Si el empieza con la fila

s3, Mary le seguirá con la columna t2 o la t3, de manera que John conseguirá un pago 0.

Poniéndose en el peor de los casos conduce a que el conjunto de pagos de John sea (0,2,0) (...)

El mejor pago de este conjunto es el pago 2, 2 es igual al maximín».66

Hasta qué punto, entonces, es razonable jugar la estrategia maximín en un juego de suma

no nula; justamente en la matriz anterior, t2 está fuertemente dominada por t3. Algunos autores

defienden el uso de estrategias maximín en situaciones de riesgo, pero no tiene porqué ser

racional usar una estrategia maximín si el juego no es de suma cero y, además, no se tiene certeza

acerca de la racionalidad del rival. Si su oponente juega mal, y usted lo sabe, sería irracional no

intentar aprovecharlo en su favor.

La defensa del teorema del minimax, en situaciones de incertidumbre, cuando el juego

no es de suma cero, suele tomar la siguiente forma: «Puede, a partir de lo dicho, inferirse que las

estrategias obtenidas según los principios de la lógica del minimax no permiten (en el caso del

juego de suma no nula) llegar al equilibrio. Pero ello no quiere decir que éste no exista, ya que

todos los juegos no cooperativos lo poseen. Lo que sucede es que las estrategias que permiten

acceder a tal posición no tienen por que ser las derivadas de aquella lógica. Y ello es así debido

a que tanto en los juegos de suma nula el jugador hace maximín su propio nivel de seguridad (lo

que le permite garantizar que lo peor que puede acaecerle es ‘lo menos grave’), en los de suma

no nula puede suceder que el otro jugador no se comporte (por ignorancia o incompetencia) de

manera tal que tienda a conseguir los resultados más ventajosos para sí, por lo que,

paradójicamente, el jugador primero puede llegar a obtener un peor resultado que el que le habría

correspondido de actuar el otro ‘inteligentemente’ (esto es, con mayor ‘competencia’), aunque

CAPÍTULO I

67 LÓPEZ CACHERO, M., Teoría de la decisión. Madrid, Ed. ICE, 1983, p. 220.

78

sólo sea porque la errónea actuación del segundo pueda venir motivada por la ‘mala suerte’ del

primero, que lleva a éste a asumir estrategias equivocadas para sus propios intereses, sin que el

otro advierta tal circunstancia».67

No hemos de olvidar que el objetivo de la teoría es predecir las elecciones de los sujetos,

bajo el supuesto de que todos intentan maximizar sus beneficios, o sus utilidades.

6.4. ESTRATEGIAS MIXTAS.

En la mayoría de los ejemplos anteriores, hemos sido capaces de preveer lo que haría el

jugador que juega en contra nuestra, ya que lo que existían eran estrategias puras. Una estrategia

mixta se define como falta de certeza de un jugador respecto a lo que otro jugador hará. Un

jugador usa una estrategia mixta cuando elige aleatoriamente una estrategia pura; por ejemplo,

un jugador que dispone de dos estrategias puras, podría decidir usar una estrategia pura con

probabilidad un tercio y la otra con probabilidad dos tercios. ¿Cómo encontrar entonces la

solución al juego? El primer paso es eliminar las estrategias dominadas. En la siguiente matriz,

A está dominada por una estrategia mixta, que consiste en jugar A un quinto del tiempo y C los

cuatro quintos restantes.

En el caso propuesto, si su oponente juega D usted obtendría 1/5(15) + 4/5(5) = 7 y si

juega E 1/5(10) + 4/5(20) = 18. Los pagos medios 7 y 18 exceden lo que hubiera obtenido

jugando a B que sería 6 y 15.

D E

A 15 10

B 6 15

C 5 20

Tabla VIII

CAPÍTULO I

79

Veámoslo con otro ejemplo. En este caso la estrategia s2 está fuertemente dominada por

s3, ya que el jugador s siempre obtiene mejores pagos jugando a s3 que a s2 elija lo que elija su

contrario.

t1 t2 t3

s1 1, 0 6, 4 0, 9

s2 2, 1 0, 2 3, 0

s3 3, 7 2, 3 4,0

Tabla IX

Si eliminamos la estrategia s 2 tendríamos:

t1 t2 t3

s1 1, 0 6, 4 0, 9

s3 3, 7 2, 3 4, 0

Tabla X

Ninguna estrategia pura de t está dominada por otra estrategia pura, pero la estrategia pura

t2 está fuertemente dominada por la estrategia mixta q = (1/2, 0, 1/2), que asocia probabilidad un

medio a t1 y un medio a t3.

Si t usa la estrategia q y s elige s1, los resultados (s1,t1) y (s1,t3) se darán con

probabilidad 1/2, por tanto los pagos esperados serán: 0(1/2) + 9(1/2) = 9/2, por lo que t obtiene

más con q que con t1 ya que 9/2>4 que es el pago asociado a t2.

Si s elige s3, los pagos esperados serán: 7(1/2) + 0(1/2) = 7/2, por lo que t obtiene más con

q que con t2 ya que 7/2>3, que es el pago asociado a t2. Lo eliminamos y tenemos:

t1 t3

s1 1, 0 0, 9

s3 3, 7 4, 0

Tabla XI

La estrategia s3 domina fuertemente a s1, t1 domina fuertemente a t3. Equilibrio (s3,t1).

CAPÍTULO I

68 LÓPEZ CACHERO, M., 1983, p. 221.

80

6.5. PAGOS ASEGURADOS CON ESTRATEGIAS MIXTAS.

Veamos cómo hallar el índice de probabilidad: la regla, según los creadores del juego,

consistiría en escoger una estrategia mixta que le proporcione el mismo pago medio,

independientemente de lo que haga su contrincante. Usted decide jugar A con una probabilidad

p, y C con una probabilidad (1-p); su oponente juega D con una probabilidad r, y E con una

probabilidad (1-r).

D: 15p + 5(1-p)=15p + 5-5p=5 + 10p

E: 10p + 20(1-p)= 20-10p

Se igualan los pagos medios: 20-10p=5+10p ; 15=20p ; p=3/4

Es decir, juega A con una p de 3/4 y C con una p de 1/4

El pago medio sería 25/2 ya que: 5 + 10p= 5 + 10 3/4 = 25/2

20 - 10p= 20 - 10 3/4= 25/2

Su oponente hará exactamente lo mismo.

La diferencia entre los juegos que tienen puntos de equilibrio y los que no lo tienen radica

en que, en los segundos, el valor del juego se obtiene como promedio.

La importancia de las estrategias mixtas es que éstas permiten generalizar el concepto de

equilibrio, inicialmente restringido por Von Neumann y Morgenstern a los juegos de suma cero,

a los juegos de suma variable. El teorema de Nash reza: «Dado un juego de las características

descritas, esto es, no cooperativo, con información perfecta y n-personal, en el que cada jugador

dispone de un número finito de estrategias puras, dicho juego admite al menos un punto de

equilibrio en estrategias mixtas».68

Podría llegar a pensarse que los presupuestos de la teoría han sido cambiados y que el

agente ya no maximiza, según los axiomas que vimos de la teoría en condiciones de certeza.

Efectivamente, parece que con las estrategias maximín y minimax los jugadores no obtienen el

CAPÍTULO I

81

máximo del juego. Una forma de explicar esta aparente paradoja es postular al resto de los

agentes como una restricción. Al igual que la restricción presupuestaria elimina alternativas del

conjunto posible del decisor, la presencia de otros agentes también elimina alternativas y la

maximización se produce, no sobre el conjunto completo de alternativas, sino sobre el conjunto

que el resto de los agentes permite al decisor. Por tanto, seguimos estando en el contexto de

maximización de la teoría del comportamiento del consumidor.

* * *

Hemos expuesto la teoría del comportamiento del consumidor como una teoría que

describe las elecciones individuales de los agentes. El postulado fundamental es el de

racionalidad, en su sentido económico, como la elección de la mejor opción para un fin dado.

Dado que las elecciones implican la selección de una alternativa sobre otras conjeturamos que

el individuo no dispone de medios suficientes para hacer asequible el conjunto completo de

alternativas, por tanto la primera restricción es la de renta o recursos.

Asimismo, se ha supuesto que habrá situaciones en las que el agente no dispondrá de

todo el conocimiento necesario para realizar la elección, en este sentido, la segunda restricción

planteada es la de información.

Finalmente, se supone que las elecciones de los individuos se realizan en un contexto

social por lo que habrá ocasiones en las que los intereses de un miembro del grupo choquen

frontalmente con los de otro. La tercera restricción planteada es la conducta de los otros.

Pese a estos tres conjuntos de restricciones, o precisamente gracias a ellos dado que

reducen el conjunto de alternativas, la teoría parece capaz de describir formalmente las elecciones

individuales como elecciones óptimas dadas las restricciones. La optimización supone la

maximización de la utilidad.

La fuerza de esta teorización es considerable dado que, en teoría, con un número de

axiomas relativamente pequeños y un conjunto mínimo de supuestos nos permite predecir los

bienes que elegirán los sujetos, en qué cantidades y a qué precios y cómo se distribuirán esos

CAPÍTULO I

69 K. O. May desarrolla un interesante experimento, con la herramientas de la teoría del comportamiento deconsumidor, en el que los sujetos fueron enfrentados a tres alternativas que eran posibles parejasmatrimoniales. MAY, K. O., «Intransitivity, Utility and the Aggregation of Preference Patterns», Econometrica,Vol. 22, 1954, pp. 1-13. Para un resumen del mismo ver capítulo II, § 4.1.

82

bienes entre el grupo social en cuestión. Esto produce una situación de equilibrio, donde la oferta

de bienes se iguala a la demanda y todos los agentes maximizan su utilidad, es decir, todos están

en la mejor situación posible dadas sus restricciones. Estamos pues, al menos formalmente, en

el mejor de los mundos posibles, o, más bien, en el mejor de los obtenibles dada una distribución

inicial de recursos.

Que este sea el status de la teoría en el terreno de la economía es algo que no está exento

de críticas. De hecho esta formulación ha sido fuertemente cuestionada señalando que no cumple

los objetivos indicados. A lo largo de la segunda parte de este trabajo se verán cuáles son las

dificultades que tiene que afrontar este diagnóstico optimista. Por ahora, mantendremos el

supuesto de que efectivamente es una teoría eficaz, tanto a nivel explicativo como predictivo, ya

que ésta ha sido una de las razones fundamentales para exportarla al resto de los ámbitos de

elección humana, tanto personales, como políticos o sociales. Esto supone tratar a estas

elecciones con los mismos instrumentos usados en el caso de las elecciones económicas. Se

podría afirmar, por ejemplo, que el individuo distribuye su tiempo de ocio entre el cine, la lectura

y la televisión igualando sus utilidades marginales o que elige a su pareja comparando todos los

posibles compañeros o compañeras69 (asequibles para él o ella) por pares y que la elección

realizada es aquella que maximiza su utilidad. Podríamos considerar que esto no es más que una

metáfora, una forma conveniente de narrar una situación de elección. Pero los teóricos han ido

mucho más allá, ya que lo que están proponiendo es trasladar el utillaje conceptual, que hemos

venido analizando a lo largo de este capítulo, a la elección social con el objetivo de ser capaces

de explicar y predecir, en este ámbito, en el mismo sentido en que se haría en el caso de las

elecciones económicas.

El próximo capítulo está dedicado a analizar uno de los casos más relevantes de

CAPÍTULO I

83

aplicación de los supuestos y conceptos de la teoría microeconómica a otros contextos de

elección. Nos referimos a la teoría de la elección social.

«Dejad, pues de quejaros: sólo los tontos se esfuerzanpor hacer de un gran panal un panal honrado.

Querer gozar de los beneficios del mundo,y ser famosos en la guerra y vivir con holgura,

sin grandes vicios, es vana utopía en el cerebro asentada.Fraude, lujo y orgullo deben vivir

mientras disfrutemos de sus beneficios(....)

igualmente es benéfico el viciocuando la Justicia lo poda y limita;

y, más aún, cuando un pueblo aspira a la grandeza,tan necesario es para el Estado

como es el hambre para comer». B. Mandeville . La Fábula de las Abejas

CAPÍTULO II

85

Capítulo II.

La Teoría de la Elección Social.

1. INTRODUCCIÓN.

Brevemente expuesta, la temática de la teoría de la elección social, tal como se ha

desarrollado históricamente, tiene que ver con la selección de una situación social, entendida ésta

como un estado en el que se encuentran especificadas las distintas posiciones individuales. Estas

especificaciones vienen definidas por cuestiones como: tiempo de trabajo y ocio, remuneración

salarial, distribución de bienes, tanto públicos como privados, sistemas, normalmente

impositivos, de redistribución de riqueza, etc., en manos de cada individuo. Es suma, estamos

hablando de bienestar.

Cuando hablamos de bienestar nos referimos, básicamente, a cómo se distribuyen los

bienes entre un grupo social determinado. En la teoría microeconómica, expuesta en el capítulo

uno, las preferencias se referían a las cestas de consumo individual; en el campo del bienestar las

preferencias se refieren a asignaciones. Por asignación se entiende una descripción de la cantidad

de bienes, ya sean públicos o privados, que obtiene cada individuo en cada situación social

posible.

El bienestar es entendido, en este enfoque teórico, como utilidad. En el terreno

CAPÍTULO II

86

microeconómico la utilidad es una función creciente de la riqueza. El uso del utillaje conceptual

que proviene de la economía obliga a considerar el bienestar en los mismos términos, pero es

inevitable que en muchos enfoques teóricos sean introducidas consideraciones acerca del criterio

que se utiliza en la selección de las alternativas. Es posible que para muchos lo único relevante

en cuestiones de bienestar sea su propia cesta de consumo, y éste será su criterio de elección

entre las distintas asignaciones posibles, pero también es posible que no, que el bienestar de los

otros incida en el bienestar propio. Esto introduce considerables dificultades de las cuales el

modelo económico de elección no da cuenta.

Una vez identificadas las preferencias de los agentes sobre las distintas asignaciones

posibles, podemos construir una especie de función de utilidad social ui (x) donde el individuo

i prefiere la asignación x a la asignación y sí y sólo sí ui (x)> ui (y). Esta función es una función

ordinal de la utilidad, en el sentido de que cualquier transformación monotónica conserva la

ordenación de preferencias subyacente, pero con la problemática, ya analizada en el capítulo

anterior, de que no existe una única representación de la utilidad.

Pero supongamos por un momento que contamos con dicha representación única, una

forma de averiguar la asignación que otorga el máximo bienestar posible es construir una función

de las funciones de utilidad (social) de los individuos, es decir, una función de bienestar social.

Un ejemplo de ello lo constituiría la función clásica benthamita donde se suman las distintas

funciones de utilidad de los individuos. La tarea, a partir de aquí, es encontrar el máximo de esa

función de bienestar social. En esta función cada individuo entra con el mismo peso en la

agregación de la preferencia social, pero es posible no hacerlo así y utilizar, por ejemplo la

función rawlsiana, donde W (u1, ..., un) = min {u1, ..., un}, es decir, el bienestar social que

proporciona una asignación depende solamente del bienestar del individuo que se encuentre en

peor situación.

También es posible que a la hora de construir la función de utilidad social individual, es

decir, a la hora de evaluar las asignaciones, al individuo sólo le importe su propio bienestar en

CAPÍTULO II

87

cada una de las asignaciones. Nos encontraríamos en ese caso con la función de bienestar

individualista de Bergson-Samuelson.

Cada una de estas funciones es un instrumento para comparar las funciones de utilidad

de los distintos individuos. Pero ¿qué ocurre si dicha comparación no es posible?

Una forma alternativa de agregar las preferencias individuales sin tener que ocuparnos de

comparaciones interpersonales de utilidad son los diversos mecanismos de votación. Por ejemplo

la preferencia social por dos asignaciones alternativas vendría dada por la preferencia de la

mayoría acerca de esas dos asignaciones. Desgraciadamente, prácticamente todos los sistemas

de votación están sujetos a paradojas indeseables y son susceptibles de manipulación. Se trataría

entonces de imponer a estos mecanismos de votación una serie de condiciones que eliminen las

paradojas y la manipulabilidad. Esta fue la tarea a la que se enfrentó K. Arrow en la década de

los 50 del siglo XX. Desafortunadamente sus trabajos concluyen con un teorema de

imposibilidad que afirma que cualquier método de votación al que se le impongan tres

condiciones mínimas, plausibles y generalmente deseables, será una dictadura.

Los trabajos a partir de la obra de Arrow toman varias líneas divergentes. Muchos autores

optan por escapar al teorema de imposibilidad mediante el sacrificio de alguna de las condiciones

impuestas, otros optan por el viejo camino de la utilidad cardinal y las comparaciones

interpersonales y otros muchos intentan hallar una vía intermedia.

Esta es básicamente la historia del desarrollo teórico de la teoría de la elección social. A

su profundización dedicaremos este capítulo.

Antes de comenzar un breve recordatorio. En las páginas siguientes se utilizarán las

herramientas teóricas descritas en el capítulo primero. Es decir, las ordenaciones de preferencia

sobre asignaciones han de cumplir los mismos requisitos que las utilizadas para las cestas de

consumo. La técnica utilizada en la maximización del bienestar es exactamente igual a la

empleada en la maximización de la utilidad individual y se especificará en cada caso si estamos

ante una escala ordinal o una cardinal. Lo único que ha cambiado es el objeto de elección,

CAPÍTULO II

70 SMITH, A., La riqueza de las naciones. Madrid, Ed. Alianza, 1996, p. 660.

88

asignaciones en lugar de cestas de consumo individual. Los supuestos conductuales de los

agentes continúan siendo los mismos.

2. UN BREVE RECORRIDO HISTÓRICO.

2.1. LA ECONOMÍA DEL BIENESTAR.

La Economía del Bienestar se caracteriza por aceptar que la elección entre las distintas

asignaciones no puede ser abandonada a las meras leyes del mercado. Éstas exigen de una

política económica planificada, dirigida precisamente a paliar los fallos del mercado en lo que se

refiere a externalidades y dificultades en la provisión de bienes públicos.

Incluso A. Smith, a quien muchos ven como el defensor a ultranza del capitalismo más

salvaje, postulaba como uno de los deberes del soberano el «de edificar y mantener ciertas obras

públicas que jamás será del interés de ningún individuo o pequeño número de individuos el

edificar y mantener, puesto que el beneficio nunca podría reponer el coste que representarían

para una persona o un reducido número de personas, aunque frecuentemente lo reponen con

creces para una gran sociedad».70 Esto no es más que la definición de bien público y las

dificultades que entraña su provisión. Un bien público es caracterizado por dos rasgos

fundamentales: en primer lugar, por la imposibilidad de excluir a consumidores potenciales del

mismo y, en segundo término, por la unidad de oferta. El primero de estos rasgos remite al

problema del gorrón o del free rider. Es decir, aquellos que no paguen no podrán ser excluidos

del consumo del bien, lo cual da entrada a comportamiento estratégico y revelación falseada de

preferencias, con la consecuencia de que el mercado no podrá proporcionar eficientemente este

tipo de bienes.

La problemática asociada al segundo es la de los costes decrecientes, es decir, una vez que

se ha proporcionado a un individuo una unidad de ese bien, el coste de proporcionarlo al resto

de los individuos es cero, con lo que existen costes decrecientes, dándose el problema que Head

CAPÍTULO II

71 HEAD, J., «Los fundamentos normativos de la teoría de la hacienda pública», en CASAHUGA, A. y BACARIA, J.,(Comps.), Teoría de la política económica. Madrid, Ed. Instituto de Estudios Fiscales, 1984, p. 133.

72 ROMERO, C., «Economía ambiental: aspectos básicos». Revista de Occidente. Nº 149, 1993, pp. 25-39.

73 «y al orientar esa actividad de manera de producir un valor máximo él busca sólo su propio beneficio, peroen este caso como en otros una mano invisible lo conduce a promover un objetivo que no entraba en suspropósitos (...) Al perseguir su propio interés frecuentemente fomentará el de la sociedad mucho máseficazmente que si de hecho intentase fomentarlo». SMITH, A. 1996, p. 554

74 PIGOU, A. C., The Economic of Welfare. Londres, Ed. MacMillan, 1920.

89

postula como inapropiabilidad: «la propiedad de un bien que hace imposible que las unidades

económicas privadas, puedan, a través de la fijación de precios ordinaria privada, apropiarse

todos los beneficios sociales (o les sean cargados todos los costes sociales) que se derivan de la

producción o consumo de ese bien».71

Las externalidades quedan definidas en los siguientes términos: una externalidad se

produce siempre que la producción de una empresa o la utilidad de un consumidor se ve

afectada, no sólo por el valor que toman las variables que el productor o consumidor controla,

sino, además, por el valor que toman variables económicas controladas por otros agentes.72 Este

concepto en su sentido positivo fue acuñado por A. Smith bajo el célebre término de la ‘mano

invisible’,73 pero es Pigou74 quien hace ver el aspecto negativo de las externalidades. Él señala que

las teorías que postulan el equilibrio general competitivo y la perfecta asignación y eficiencia del

mercado, exigen que no existan externalidades negativas. Pero tales externalidades existen. Un

ejemplo típico de Pigou es el de la contaminación por el humo de una fábrica. Según Pigou, la

única forma de que esa externalidad desaparezca, o sea internalizada, es mediante la exacción de

un impuesto que grave la actividad contaminante o, en general, la actividad que produce la

externalidad. Esto dará entrada a la intervención del Estado en los asuntos económicos y lo que

se dará en llamar la Economía del Bienestar. Pero se ha definido el campo de estudio de la

economía del bienestar en términos contemporáneos. Preocupación política por el bienestar ha

existido siempre pero, tal y como ha sido formulada, se desarrolla a partir del nuevo enfoque en

la teoría del valor que supuso la revolución neoclásica. Para los clásicos el máximo bienestar se

CAPÍTULO II

75 MANDEVILLE, B., La Fábula de las abejas o los vicios privados hacen la prosperidad pública. México,Ed. Fondo de Cultura Económica, 1982.

76 Las primeras formulaciones del tema vienen del Utilitarismo como forma de pensamiento económico ypolítico; Bentham había sido uno de los primero en formular una Función de Bienestar Social, antes deque se constituya como tal la Economía del Bienestar y en tal clave se siguen desarrollando en su seno.

77 C. MENGER Gundsatze der Volkwirtschaflslhre, 1871, W. S. JEVONS Theory of Political Economy, 1871, L.WALRAS Elements d’economie politique pure, 1874/77.

90

equiparaba con la máxima riqueza, no existiendo una preocupación específica por el bienestar

social, dado que cada uno persiguiendo su propio interés genera el bien común o, en otros

términos, los ‘vicios privados’ generan ‘beneficios públicos’.75 El pensamiento marginalista

aporta una nueva concepción del bienestar basado en la asignación eficiente de los recursos. De

una u otra forma, ‘oficialmente’ la economía del bienestar nace con Pigou, pero tendremos

ocasión de analizar sus antecedentes en las primeras formulaciones utilitaristas.

El desarrollo y avance en el tratamiento de los problemas característicos de la Economía

del Bienestar ha aunado el esfuerzo de grandes teóricos y filósofos sociales y ha implicado,

además, a distintas teorías filosóficas, como se verá a continuación, en un breve recorrido por la

evolución de sus principales aspectos. Esta evolución muestra el tipo de cuestiones que terminan

por desembocar en la actual Teoría de la Elección Social como pieza clave que pretende dar

cuenta teórica de los problemas que se plantean en la Economía del Bienestar.

2.2. LAS FUNCIONES UTILITARISTAS CLÁSICAS.

Las primeras formulaciones acerca del bienestar, son de corte utilitarista.76 El núcleo de

esta opción se basa en la exigencia de que las políticas públicas estén encaminadas a maximizar

la utilidad global de la sociedad. Sus supuestos básicos son la mensurabilidad de la utilidad, la

posibilidad de realizar comparaciones interpersonales de utilidad y, finalmente, el principio de

utilidad marginal decreciente, propuesto en primer lugar por Jevons, Menger y Walras.77 Si es

posible establecer mediciones de la utilidad, es posible maximizar la utilidad global y, por tanto,

establecer el óptimo social.

Bentham entendía por utilidad: «la propiedad de todo objeto por la que tiende a producir

CAPÍTULO II

78 BENTHAM, J. An Introduction to the Principles of Morals and Legislation, 1789. Citado en COLOMER,J.,El utilitarismo. Barcelona, Ed. Montesinos, 1987, p. 21.

91

beneficio, ventaja, placer, bien o felicidad (todo lo cual en este caso viene a ser lo mismo), o (lo

que igualmente viene a ser lo mismo) a prevenir el perjuicio, el dolor, el mal o la desdicha de la

parte cuyo interés se considera. Si esta parte es la comunidad en general, entonces se trata de la

felicidad de la comunidad; si es la de un individuo en particular, de la felicidad de ese

individuo».78

Los tres supuestos más importantes del pensamiento benthamita son: en primer lugar, que

el único objeto de la voluntad humana es la consecución del placer o lo que es lo mismo la

ausencia del dolor, en segundo lugar que tal placer es susceptible de medida y, por tanto, del resto

de las operaciones aritméticas, lo cual implica que todos los placeres son cualitativamente iguales

y cuantitativamente formulables. Y finalmente que los placeres de los distintos individuos pueden

ser comparados entre sí.

Si a lo anterior es añadido que el principio utilitarista por excelencia es la mayor felicidad

para el mayor número, al mismo tiempo, se considera a la sociedad como un agregado de

individuos y se sostiene que los placeres de los mismos se pueden sumar o agregar, se tienen ya

los principios generales del cálculo utilitarista aplicado a la distribución social.

La Economía del Bienestar, que se gesta desde principios del siglo XX, tiene aquí la

maternidad más evidente, pero antes de eso muchas otras consideraciones se hicieron acerca del

concepto de utilidad, desde el mismo utilitarismo, que influyeron en la gestación de la Economía

del Bienestar.

Así, J. S. Mill, uno de los mayores difusores de la doctrina utilitarista y seguidor de

Bentham, negará el tratamiento que hace éste de los principios señalados. Aunque continúa

sosteniendo la utilidad como la búsqueda de la felicidad introduce una serie de elementos que

le distanciarán de la concepción benthamita. Por ejemplo, niega que todos los placeres sean

cualitativamente iguales, tal y como había sostenido Bentham. «Es perfectamente compatible con

CAPÍTULO II

79 MILL, J. S. El utilitarismo. Buenos Aires, Ed. Aguilar, 1980, p. 30.

80 Esta opinión es contraria a la que sostiene explícitamente el profesor R. Castilla en el prólogo a la obra,donde afirma que Mill niega el tercer supuesto establecido por Bentham al asegurar «que es mejor serSócrates insatisfecho que un loco satisfecho». En MILL, J.S., 1980, p. 12.

81 Ibídem, p. 33.

82 Ver en este mismo capítulo § 5.1 y 5.2.

83 MILL, J.S.,1980, p. 33.

92

el principio de utilidad reconocer el hecho de que algunas clases de placer son más deseables y

más valiosas que otras. Sería absurdo suponer que los placeres dependen sólo de la cantidad,

siendo así que, al valorar todas las demás cosas, se toman en consideración tanto la cualidad

como la cantidad».79 Lo que sí sigue manteniendo Mill es la comparación interpersonal de

utilidades,80 esto se hace explícito en el siguiente pasaje: «es mejor ser un hombre insatisfecho

que un cerdo satisfecho, es mejor ser Sócrates insatisfecho, que un loco satisfecho. Y si el loco

o el cerdo son de distinta opinión, es porque sólo conocen su propio lado de la cuestión. El otro

extremo de la comparación conoce ambos lados».81 Es evidente que esto implica una cierta

comparabilidad, aunque sea de la forma: ponerse en el lugar de, que tendrá gran importancia en

los planteamientos contemporáneos de A. Sen y J. Harsanyi.82

Otro aspecto relevante planteado por Mill, que tendrá importantes consecuencias para

desarrollos utilitaristas posteriores, es el planteamiento de la existencia de distintas capacidades

de satisfacción por parte de las distintas personas: «Es indiscutible que los seres cuya capacidad

de gozar es baja, tienen mayores posibilidades de satisfacerla totalmente; y un ser dotado

superiormente siempre sentirá que, tal como está constituido el mundo, toda la felicidad a que

puede aspirar será imperfecta».83 La importancia del principio de igual capacidad de satisfacción

es que todos los individuos entran con el mismo peso en la función de bienestar social, negarlo

supone que los pesos de los individuos han de ser ponderados según la satisfacción que obtengan

de los diversos bienes. Esto, que se convertirá en el principio de utilidad marginal decreciente, a

cargo de Jevons, Menger y Walras, dará una entrada a las críticas de Robbins dificultando en gran

CAPÍTULO II

84 Ver MUSGRAVE, R Y P., Hacienda pública. Madrid, Ed. McGraw Hill, 1992. Especialmente el capítulo VI.

85 Ver COLOMER, J., 1987, pp. 80 y ss.

93

manera el cálculo utilitarista.84

Tanto en Bentham como en Mill el cálculo del bienestar se constituirá como el principio

fundamental de una ética social, pero será a partir de las teorizaciones de Pigou cuando el

utilitarismo florece como doctrina económica.

Pigou supone que la maximización de la felicidad, entendiendo ésta como utilidad, se verá

favorecida por la maximización del bienestar económico. Siendo éste determinado por el

volumen de renta y por la distribución igualitaria de ésta entre los individuos. La concepción de

Pigou está basada en la idea de la utilidad marginal decreciente y considera que las

redistribuciones de renta de los ricos a los pobres aumentará el bienestar global de la sociedad.

Dadas las dificultades del enfoque, que serán analizadas en detalle más adelante, y básicamente,

debido a las repercusiones que esta redistribución tiene sobre la eficiencia económica, Pigou

acabará proponiendo un criterio normativo que pretende asegurar una renta mínima para todos

los individuos de modo que las necesidades mínimas sean satisfechas.85

A partir de aquí, en la mayor parte de las formulaciones del utilitarismo económico, la

utilidad es equiparada no ya a felicidad o placer sino a bienestar.

De acuerdo con lo que se denomina los usos económicos del utilitarismo, o utilitarismo

preferencial,se ve que la posesión de un bien entraña una satisfacción para el consumidor y que

tal satisfacción es la característica común que homogeneiza los diferentes bienes, como se señaló

anteriormente. Así, la magnitud de la utilidad dependerá de la cantidad de los bienes adquiridos.

Cuando se dice ‘magnitud de la utilidad’ se quiere decir, como ya hemos visto, que ésta

es de alguna forma medible. En los primeros planteamientos de la economía del bienestar

significaba que era medible cardinalmente: a los niveles distintos de utilidad se les puede asignar

un orden, creciente o decreciente y, además, existe proporción entre ellos. De esta forma,

supuestamente, se puede decir que el cesto de bienes A me proporciona el doble de utilidad que

CAPÍTULO II

86 SHUMPETER, J.A.,1982, p. 1152

87 Contra este optimismo del profesor Schumpeter podemos decir que estas dos restricciones han traído decabeza a los teóricos desde los inicios del utilitarismo.

88 SCHUMPETER, J., 1982, p. 994.

94

el cesto de bienes B, o triple utilidad más uno o la cuarta parte, etc, etc. J. Schumpeter

proporciona una útil definición, para el caso de la utilidad cardinal nos dice: «la definición exacta

de medibilidad en este sentido sería: es posible asociar a cada sensación de utilidad un número

real unívocamente determinado una vez elegida la unidad que se ha de interpretar como cantidad

unitaria de incentivo externamente observable que produce una reacción externamente

observable. El método de medición del calor por medio del termómetro suministra una analogía,

aunque no del todo satisfactoria».86 Como ya sabemos, se han de tener en cuenta las siguientes

restricciones: siempre es posible elegir la unidad y siempre se puede elegir un punto cero. Aunque

en opinión de Schumpeter esta arbitrariedad no se distingue para nada de la de cualquier sistema

de medición.87

Jevons, Menger y Walras, por vías diferentes y trabajando por separado, son los primeros

formuladores del concepto de utilidad marginal decreciente, aunque todos reconocen el

precedente de Gossen, por lo que las leyes de la utilidad marginal decreciente se denominan

primera y segunda ley de Gossen. Estas leyes descansan en la observación de que a medida que

aumenta la cantidad poseída de una cosa disminuye la utilidad de la misma.

La primera ley de Gossen afirma que «el valor de una unidad de una cosa es igual a su

utilidad marginal». Ésta es la utilidad que presta aquella unidad de la misma que satisface la

menos importante de las necesidades. O en otra formulación: «la utilidad total de una cosa para

un individuo aumenta hasta el punto de saciedad o saturación con cada aumento en la cantidad

de esa cosa, pero con una tasa de aumento decreciente».88 La segunda Ley de Gossen dice que

«la utilidad marginal del dinero que un consumidor invierte en cada uno de los artículos de

consumo es la misma», lo cual no es sino el principio del equimarginalismo analizado en el

capítulo anterior.

CAPÍTULO II

89 COLOMER, J.,1987, p. 77.

95

De estos supuestos se deduce una asignación eficiente de recursos, ya que el consumidor

distribuirá su capacidad adquisitiva en la compra de los diversos bienes de modo que se igualen

sus utilidades marginales. En esta situación no existirá la posibilidad de una reasignación del

gasto que mejore esa situación con lo que se obtiene un óptimo social. En palabras de Colomer:

«Cada agente económico obtendrá una utilidad máxima, mientras para cada bien la demanda

global se igualará a la oferta global y se alcanzará por tanto un equilibrio en el intercambio».89

De esta forma la utilidad que el individuo recibe de la posesión de un bien alcanza un

máximo para determinada cantidad de ese bien, punto a partir del cual comienza a disminuir. Por

tanto la utilidad marginal queda definida como la tasa de variación de la utilidad total al añadirle

una unidad más de consumo. No es la utilidad de la última unidad, sino la variación de utilidad

que experimentan el resto de las unidades al añadir una más, la que según la teoría de la utilidad

marginal decreciente, tiende a disminuir.

Algunas implicaciones para el campo del bienestar pueden ser analizadas con un ejemplo:

supóngase dos individuos K y L, se debe hacer una distribución de ingresos entre ambos; la suma

total de los ingresos es fija, por un monto total de 300.000 pts., no olvidando, que según la

premisa del utilitarismo, esto ha de hacerse de forma que se maximice la utilidad conjunta,

supóngase además que el individuo K percibe también mensualmente 100.000 pts. por rentas,

por ejemplo heredadas, y no tiene cargas familiares, por otro lado posee un negocio propio en

el que una pequeña inversión de unas 25.000 pts. produciría unas 50.000 pts. de beneficios (lo

cual quiere decir que podría ser un conversor más eficiente de ingresos en utilidad), mientras que

el individuo L mantiene a una familia de 5 miembros y no goza de ningún tipo de renta adicional,

¿cómo se realizaría esa distribución de ingresos?

a) Se reparte en partes iguales. Esta solución, en principio, no presenta mayores

dificultades salvo una cuestión de incentivos que se analizará en relación al punto c.

b) Se dan 175.000 pts. a K y 125.000 pts. a L, con lo cual además se generaría riqueza y

CAPÍTULO II

90 Ver MUSGRAVE, R. y P., 1992, pp. 100 y ss

96

se podría obtener una mayor utilidad conjunta (según los supuestos utilitaristas).

c) Se dan 175.000 pts. a L, puesto que dispone de menos ingresos que K y esas 25.000

pts. pueden ser el umbral entre el hambre y estar medianamente bien alimentados. Pero se ha de

tener en cuenta que la cuestión presenta otro lado y éste es los costes en las transferencias y los

límites a éstas. En las sociedades contemporáneas tales transferencias se hacen a nivel impositivo

y ello puede tener costes en lo que Musgrave90 denomina el total de la tarta disponible.

Básicamente el argumento de Musgrave se basa en que si la actividad económica de un sujeto

es gravada por un impuesto, de forma que haya una transferencia de ingresos a un miembro más

desfavorecido del grupo, ello inducirá, en una primera etapa, a trabajar más horas a fin de

recuperar los ingresos transferidos, pero si a medida que aumentan los ingresos aumentan los

tipos impositivos por encima de determinado nivel estos inducirán, al individuo en cuestión, a

disfrutar de más tiempo de ocio, es decir, disminuyen los incentivos al trabajo, con lo que,

efectivamente, el tamaño total de la tarta a distribuir habrá disminuido.

Manteniendo los supuestos utilitaristas, de maximización de la utilidad conjunta, ¿cuál

sería la alternativa correcta? Evidentemente es la b. Esta opción se legitima suponiendo que el

señor K extraerá mayor utilidad de esas 25.000 pts. adicionales, ya que, a su vez, estas generarían

más riqueza pues van destinadas a una inversión y además el ‘tamaño total de la tarta’ aumentará

y habrá, al final, más para repartir. De todos modos genere o no genere riqueza esa inversión, si

se pudiera demostrar que K es un conversor más eficiente en utilidad que L, las 25.000 pts., según

los criterios utilitaristas, irían a K, pues lo que importa es la suma total de utilidades, no su

distribución. En lo que respecta al resto de las opciones tenemos que: la opción c supondría que

este criterio no sería el utilitarista sino cualquier otro criterio de distribución basado en la

satisfacción de necesidades objetivas; siempre y cuando efectivamente esas 25.000 pts. fueran

el umbral entre la miseria y la satisfacción mínima de tales necesidades. A no ser que se

demostrara que L se halla en un punto más alto de su curva de utilidad marginal. Respecto a la

CAPÍTULO II

91 Esta conferencia está recogida junto con la de otros autores en Libertad, igualdad y derecho, editada porMACMURRIN, M.C. y publicada en español por Ed. Ariel, Barcelona, 1988, p. 139

97

a, para que una opción igualitaria sea válida dentro de los esquemas utilitaristas se ha de suponer

que las curvas de utilidad marginal de los distintos individuos son iguales y que extraen la misma

satisfacción de cualquier suma de dinero adicional, o, que se desconoce el punto donde se

entrecruzan tales curvas, lo cual son supuestos sumamente restrictivos.

A pesar de que según Bentham la felicidad tiene la misma intensidad para todos los

individuos no se puede negar que hay gente que extraería más utilidad de 25.000 pts. de ingresos

extra que otros, ya sea porque uno está en el umbral de la miseria y el otro es un acaudalado

propietario, bien porque uno de ellos es inválido y el otro un vividor, bien porque uno está

enfermo y el otro no, o bien, sencillamente, porque las personas no disfrutan siempre con lo

mismo, (hay toda una gama de ejemplos en la literatura sobre el tema).

Es precisamente este punto, el que constituye uno de los aspectos centrales de la crítica

realizada al utilitarismo como un sistema de redistribución. En «¿Igualdad de qué?», una

ponencia presentada por Amartya Sen en las Conferencias Tanner sobre filosofía moral, el autor

dirige un duro ataque contra la concepción de la igualdad sostenida por los utilitaristas. Uno de

los aspectos centrales del ataque refiere al tema que se trata:

«Si cierta persona inválida A obtiene la mitad de la utilidad que un vividor llamado B de

cualquier nivel de ingresos, el problema puro de distribución utilitarista concedería al vividor unos

ingresos superiores al inválido A. El inválido se encontraría entonces en desventaja por partida

doble: porque extrae menos utilidad del mismo nivel de ingresos, y porque tiene unos ingresos

menores. El utilitarismo conduciría a este resultado como consecuencia de su cerrada

preocupación por la maximización de la suma total de la utilidad, la eficacia superior del vividor

en la producción de utilidad le permitiría quitar ingresos al inválido que es menos eficiente».91

Esto no quiere decir que se estén defendiendo mayores ingresos para el inválido que para

el vividor, en base a que el primero es un conversor en utilidad menos eficiente que el segundo,

CAPÍTULO II

98

pero podría defenderse igualdad de ingresos y no de utilidades. En cualquier caso la respuesta

pertenece por completo al ámbito de teorías de la justicia.

Las cuestiones sobre la ineficacia distributiva, junto con los problemas de medibilidad y

comparabilidad interpersonal darán al traste con el utilitarismo como una teoría factible para la

redistribución de ingresos.

La cuestión ahora es afrontar la comparabilidad interpersonal de utilidades. Este es uno

de los problemas fundamentales que ataca al utilitarismo ya que se debe construir una

correspondencia interpersonal si se desea conseguir una agregación social.

Por lo que se ha visto, hasta ahora está claro que la ‘maximización de la suma total de

utilidad’ es un criterio para conseguir una distribución de la riqueza en una sociedad dada, pero

para maximizar esa suma total de utilidades primero habrá que medirla y después conseguir

alguna forma de agregación. Como ocurría en Bentham, esto no planteaba mayores problemas

pues los placeres son cualitativamente iguales siendo los determinantes de su magnitud la

cantidad de ellos que reciben los individuos. Mill introducía una complejidad adicional al sugerir

que existen distintas clases de placeres y personas con distinta capacidad de satisfacción.

Intuitivamente se puede afirmar que no es fácil ponerle un número o construir una escala de una

sensación subjetiva como es la utilidad, el bienestar, la felicidad o el placer, pero es algo que se

puede intentar.

Si se pidiera que se otorgaran índices de valor , en una escala del 1 al 10 a tres marcas de

refresco probablemente podría hacerse, o que se hiciera con tres canales televisivos o tres marcas

de cigarrillos. Todos estamos acostumbrados a responder a este tipo de preguntas cuando se nos

pide que contestemos a una encuesta y de hecho lo hacemos sin encontrar mayor dificultad. El

problema no es ese. El problema es como poner en correlación los índices de valor de los

distintos individuos, ya que si lo que se desea es maximizar la utilidad conjunta, primero se

tendría que sumar esos índices. ¿Son, por ejemplo, el 3 y el 5 magnitudes homogéneas con las

que poder operar aunque se utilice la misma escala?; ¿significa lo mismo un 4 en la evaluación

CAPÍTULO II

92 Algunos teóricos sostienen que la situación actual, cada uno residiendo en su propia ciudad, constituiría porsí misma una cuarta alternativa, el statu quo que tiende a triunfar cuando el grupo no es capaz de decidirsepor ninguna de las alternativas presentadas.

99

de dos individuos distintos?

Como sabemos, los números que cada individuo asigna a las diversas alternativas son,

en esta escala, únicos salvo una transformación lineal, véase con un ejemplo: supóngase una

pareja que está intentando decidir dónde debe establecer su residencia, cada uno de ellos vive de

momento en una ciudad distinta: la ciudad A donde reside a y la ciudad B donde reside b, una

tercera alternativa es una ciudad distinta C. El individuo a ordena las alternativas A, B, C,

mientras que el individuo b las ordena B, A, C.92 En una escala del 1 al 10 a asigna los índices 8,

5, 3 a sus alternativas y b asignaría 9, 4, 3 a las suyas. No se puede poner en relación los números

de a con los números de b pues no se conoce qué significado tiene para cada uno de ellos esos

números, ni siquiera si el 3 que ambos asignan a la alternativa C expresa el mismo grado de no

deseabilidad para los dos. La única forma en que esos números puedan entrar en correspondencia

es una transformación lineal.

La forma usual de llevar a cabo tal transformación es asignar cero a la peor alternativa y

uno a la mejor. Por tanto el individuo a daría valor 1 a A 0,5 a B y 0 a C, mientras el individuo

b daría 1 a B, 0,4 a A y 0 a C. Como se ve gana la alternativa A ya que obtiene una puntuación

de 1,5 frente al 1,4 de B y al 0 de C. Se han agregado las utilidades de los dos individuos y se

obtiene que la forma de que haya una mayor utilidad conjunta es trasladándose a vivir a la ciudad

B. Claro que si el individuo a conociera nuestro sistema de transformación probablemente

otorgaría un valor inferior a B y el resultado variaría. Esto es lo que no puede ocurrir con

magnitudes físicas, por ejemplo de peso, introducidas operacionalmente (mediante por ejemplo

la balanza) a través del establecimiento de una unidad métrica (el gramo) perfectamente unívoca

y estable. No disponiendo de tal unidad, el problema es qué hay detrás de los números (utilidad)

y qué cantidad de ello hay tras cada uno. Es decir, cuál sería la unidad métrica para poder

establecer cada medida de utilidad y compararla con otra. Hay que volverse hacia los sujetos y

CAPÍTULO II

93 ROBBINS, L., 1980, p. 183.

94 Ibídem, p. 186.

100

dejar que ellos otorguen números a la satisfacción que reciben por una unidad de bien. Pero esto

no nos lleva muy lejos. En cualquier caso, básicamente ésta sería la forma de aplicar el criterio

utilitarista a un grupo social.

Pero el ataque fundamental se realiza en 1932 por parte de L. Robbins contra el mismo

criterio de redistribución basado a su vez en el principio de utilidad marginal decreciente. Según

Robbins: «de ahí se concluye que la utilidad marginal del ingreso de un millonario es menor que

la del ingreso de un pobre. Por tanto, la utilidad total aumentará si se hacen algunos traspasos que

no afecten en forma apreciable la producción. Por consiguiente tales traspasos están justificado

económicamente».93

El argumento de Robbins es justamente que ello es insostenible y que la ley de utilidad

marginal decreciente no tiene ninguna base científica sobre la que ser sustentada, por tanto, las

proposiciones extraídas de ella tampoco. Es imposible, afirma, comparar las satisfacciones que

derivan de determinados bienes distintas personas. « ... supongamos que nuestro desacuerdo

estribe en la satisfacción que A deriva de un ingreso de mil pesos y la satisfacción que obtiene

B de un ingreso doble. No podría obtenerse la solución interrogándolos porque quizás tengan una

opinión diversa. A podría decir que en el margen su satisfacción es mayor que la de B. En tanto

que B podría sostener, por el contrario que su satisfacción es mayor que la de A. No es necesario

ser un empedernido behaviorista para comprender que ésta no es una prueba científica. No existe

medio de comprobar la magnitud de la satisfacción de A comparada con la de B».94

Atendiendo a tales críticas es obvio que el criterio utilitarista, basado en mediciones

cardinales, no es válido como medio de redistribución de la riqueza, como forma de hallar un

óptimo social o como criterio de la elección entre estados sociales alternativos.

Robbins no es el único que a lo largo de los últimos 50 años hace resaltar los problemas

de la medición cardinal de la utilidad. Este también será uno de los puntos de ataque de K.J.

CAPÍTULO II

95 ARROW, K. J., 1974a, p. 66.

101

Arrow (1951) en la misma línea de los ataques realizados por el profesor Robbins. Como ya se

señaló, Schumpeter establecía una analogía entre la mensurabilidad cardinal y la medición de la

temperatura, dado que en ambas se utiliza escalas de intervalo. La objeción de Arrow se

aprovecha de esta analogía. «¿Tendría sentido decir que un aumento de temperatura de 0 a 1

grados tiene la misma intensidad que un aumento de temperatura de 100 a 101 grados? Del

mismo modo no se puede decir que tenga sentido comparar utilidades marginales a diferentes

niveles de bienestar».95

Pero la utilidad cardinal presenta algunas ventajas. La fundamental es que permite tener

en cuenta intensidades de preferencia, ello es importante por dos motivos fundamentales: en el

ámbito de cualquier elección entre opciones alternativas, si se tiene en cuenta intensidades de

preferencia, puede llegarse, a través de la negociación, a situaciones de compromiso. Es decir, si

un individuo prefiere x a y de una forma muy intensa, mientras que el segundo individuo afectado

en la elección sólo prefiere marginalmente y a x, puede hallarse una salida negociada que evite

la inacción

El otro motivo fundamental de la importancia de la cardinalidad para tener en cuenta

intensidades de preferencia se refiere a la imposibilidad de realizar juicios distributivos basados

en las preferencias individuales si se sustituye por una medición ordinal de la utilidad. Un ejemplo

de Sen ayudará a clarificar la cuestión: «El problema puede ilustrarse con ayuda del ejemplo de

la división de un pastel de volumen 100 entre dos individuos, 1 y 2, siendo y1 + y2 = 100,

suponiendo que ambos prefieren más que menos. Contando sólo con el arma de las ordenaciones

individuales sabemos que el individuo 1 prefiere una división 50-50 a una división 0-100, mientras

que el individuo 2 prefiere esta segunda. Comparando ahora la división 50-50 con una división

49-51, se sigue teniendo exactamente la misma ordenación por parte de ambos individuos. No

se puede decir que las preferencias eran mucho más acusadas en el primer caso que en el

segundo ya que no se admite la cardinalidad de las utilidades individuales, lo que, combinado con

CAPÍTULO II

96 SEN, A. K., Sobre la desigualdad económica. Barcelona, Ed. Crítica, 1979, p. 26

102

el rechazo de las comparaciones interpersonales, impide, por segunda vez, cualquier proyecto de

poder realizar una afirmación del tipo de que la ganancia del individuo 1 al pasar de 0 a 50 puede

ser mayor que la pérdida del individuo 2 al pasar de 100 a 50 o incluso de 51 a 50. El rechazo de

las comparaciones interpersonales elimina, incluso, la posibilidad de poder decir que el individuo

2 se encuentra en mejor situación que el 1 con una división 0-100».96

Este es un problema metodológico grave, pues, la escala de medición, ordinal en este

caso, no refleja las diferencias que se producen de hecho, con lo cual su validez es cuestionable.

La crítica de Robbins acerca de la imposibilidad de realizar comparaciones interpersonales

de utilidad basadas en la ley de la utilidad marginal decreciente, hace que el utilitarismo, como

fundamento de la Economía del Bienestar, caiga en el olvido a favor del principio de Pareto, que

obvia tales comparaciones. La teoría de la utilidad sigue estando en la base de las teorías del valor

y de la teoría de la demanda del consumidor, pero su uso, en cuestiones redistributivas, es dejado

de lado prácticamente hasta nuestros días.

2.3. EL ÓPTIMO DE PARETO.

La filosofía utilitarista del bienestar se apoya en el principio que afirma que lo importante

es maximizar la utilidad global de la sociedad al margen de cómo se distribuya esa utilidad entre

los distintos agentes.

Una forma alternativa de afrontar el problema es abandonar cualquier pretendido principio

de justicia y centrarse en aquellas asignaciones que son eficientes. Para comprender la idea de

eficiencia hemos de analizar el proceso de intercambio de bienes por medio del cual se pasa de

una asignación inicial, digamos x a una asignación final y. Recuérdese que una asignación es una

descripción de la cantidad y clase de bienes en manos de cada individuo.

Un útil instrumento gráfico para analizar dicho proceso, para dos individuos y dos clases

CAPÍTULO II

97 Francis Ysidro Edgeworth (1845-1926) economista inglés que utilizó por primera vez ente instrumento.

103

de bienes, se denomina la caja de Edgeworth.97

En la figura XIII se representan las curvas de indiferencia de dos individuos (A y B), para

dos bienes (x1 y x2) con dos rectas presupuestarias dadas (MA y MB). Se ha de tener en cuenta

que las curvas de indiferencia de B deben ser giradas 180 grados desde lo que sería su posición

normal. La convexidad suave estricta de las curvas de indiferencia de la que se habló en el

capítulo primero, implica que hay un número infinito de puntos de tangencia entre las curvas de

indiferencia de A y B, por ejemplo los puntos P, Q y R. Tanto P como Q serían asignaciones

mejores que S dado que A está mejor en ambos puntos y B no está peor. Esta es la idea

fundamental de lo que se ha denominado criterio de Pareto, aquellos puntos, que reflejan

distribuciones de bienes, donde no es posible mejorar el bienestar de uno de los individuos sin

empeorar el de otro. En este sentido P, Q y R son óptimos de Pareto, dado que al individuo A le

interesará moverse de P a Q, ya que está en una curva de indiferencia superior, pero para el

individuo B ocurre justo lo contrario. Los individuos a través de un proceso de intercambio,

donde lo único que persigue cada uno es mejorar su propio bienestar, llegarán, en función de las

distribuciones iniciales, a uno de estos puntos.

Figura XIII

CAPÍTULO II

104

Téngase en cuenta que cada uno de estos puntos es una situación de equilibrio, es decir,

una situación tal en la que cada consumidor elige la cesta que prefiere, entre aquellas que son

asequibles, y la demanda se iguala a la oferta. El primer teorema de la Economía del Bienestar

paretiana afirma que cualquier asignación de equilibrio, en un conjunto de mercados

competitivos, es una asignación eficiente en el sentido de Pareto, un óptimo, el segundo teorema

establece que un óptimo de Pareto es una situación de equilibrio competitivo. Por tanto sólo hay

que dejar que cada uno maximice su propio bienestar para lograr una asignación eficiente. Así,

el criterio de Pareto permitiría situarse en el punto óptimo de distribución de bienes, teniendo en

cuenta el nivel productivo de una sociedad y la escasez de recursos.

Las verdaderas ventajas de este criterio son, como se señaló, que no son necesarias las

comparaciones interpersonales de utilidad, con lo que se obvian muchos de los problemas que

aquejaban a la economía del bienestar utilitarista y, principalmente, que dadas ciertas condiciones

de optimalidad, suministradas por el mercado perfectamente competitivo, es posible la

identificación de ese óptimo. Por tanto, la única tarea que quedaría sería diseñar las instituciones

y políticas que cumplan tal óptimo.

Ahora bien, el teorema de la economía de bienestar basado en el óptimo de Pareto,

tampoco se halla exento de críticas que suscintamente expuestas son:

En primer lugar, que la restrictividad de los supuestos que definen la competencia

perfecta, necesaria para alcanzar el óptimo, son poco más que una caricatura de los mercados

reales alejados de tal ideal. En segundo lugar, que la existencia de monopolios o la de

externalidades dan al traste con la pretendida eficiencia del mercado. Tercero, el hecho de que el

mercado no proporcione óptimos en la provisión de bienes públicos, debido a las paradojas de

la acción colectiva y el problema del free rider. Y, finalmente, el que la eficiencia no sea el único

-ni el principal- objetivo deseable dentro de la organización social, ya que los aspectos

relacionados con la ‘distribución’ han quedado fuera.

Esto en lo que respecta al teorema. En lo que respecta al criterio en si, se encuentran, en

CAPÍTULO II

98 SEN, A., 1976, p. 39.

99 Ibídem, p. 38.

100 El criterio de Pareto ha merecido una atención mayor que algunas otras cuestiones, pues este constituye, comose suele decir, una especie de ‘vaca sagrada’ de la literatura económica sobre bienestar. Básicamente, granparte de su desarrollo se ha dedicado a mejorar el criterio, intentando eliminar sus restricciones, pero elcriterio en sí se mantiene incluso en las formulaciones de Arrow.

105

primer lugar, serias dificultades para entenderlo como un óptimo para la provisión de bienes

públicos. En palabras de Amartya Sen:

«Una economía puede ser óptima en este sentido aún cuando unos estén nadando en la

abundancia y otros bordeen la indigencia, con tal de que no pueda mejorarse a los indigentes sin

recortar los placeres de los ricos. Si evitar el incendio de Roma hubiera hecho que Nerón se

sintiese peor, entonces dejarle incendiar Roma sería un óptimo de Pareto. En resumen una

sociedad o una economía pueden ser óptimas en el sentido de Pareto y ser no obstante

perfectamente indignante».98

Con lo cual el óptimo de Pareto difícilmente satisface el fin teórico para el que se formula.

Por otro lado, el criterio de Pareto conducirá frecuentemente al inmovilismo social, pues

exigir tal óptimo es, prácticamente, exigir unanimidad absoluta a la hora de proponer cualquier

cambio. Esto nos llevará, en la mayoría de ocasiones, a que la alternativa dominante sea el statu

quo, bloqueando políticas que podrían haber sido aceptables para una mayoría.

Presenta, además, problemas formales: no es capaz de clasificar todas las posibles

distribuciones de bienestar. Es decir, el criterio no proporciona una ordenación completa de las

preferencias sociales, ya que varios óptimos pueden ser señalados sin que haya ningún otro

criterio capaz de ordenar su deseabilidad social. Esto planteaba inconvenientes que son bien

descritos por Sen:99 «en cuanto haya un individuo que prefiera x a y, otro que prefiera y a x no

podremos compararlos ya socialmente usando la regla de Pareto, independientemente de como

el resto de los individuos evalúe a x frente a y, y de cuántos sean».100

El criterio de Pareto, con su escasa preocupación por el tema de la distribución, su

incapacidad para dirimir entre distintos óptimos y su insuficiencia para proporcionar

CAPÍTULO II

101 BERGSON, A., «Una nueva formulación de ciertos aspectos de la economía del bienestar», en ARROW,K. J., ySCITOVSKI, T., (Comps.), Ensayos sobre economía del bienestar. México, Ed. Fondo de Cultura Económica,1974, pp. 16-38. SAMUELSON, P., en ARROW, K y SCITOVSKI, T., 1974, pp. 27-66.

102 Citado en MUELLER, D. C., Elección pública. Madrid, Ed. Alianza, 1984, p.190.

106

ordenaciones completas de preferencias sociales, parece conducir nuevamente a un callejón sin

salida.

2.4. LAS FUNCIONES DE BIENESTAR INDIVIDUALISTAS.

La teorización de Bergson y Samuelson101 se plantea como un intento de solución a los

problemas del criterio de Pareto. Su objetivo es que la política económica sobrepase el estrecho

margen que ofrece el óptimo de Pareto, clasificando todos los estados óptimos de Pareto, que por

definición son o bien indiferentes o bien incomparables. De lo que se trata, es de conseguir una

distribución de bienes entre los individuos que componen la sociedad que maximice su utilidad.

Bergson y Samuelson intentan construir funciones de bienestar social que eviten los problemas

del óptimo de Pareto, pero que, al mismo tiempo, no se enfrenten a los problemas de medibilidad

y comparabilidad de utilidad de las primeras funciones de bienestar utilitaristas.

Recordando el diagrama de Edgeworth (figura XIII), pueden entenderse claramente las

afirmaciones de Samuelson: «Existe un número infinito de posiciones tales (puntos de la curva

de contrato generalizada) que oscilan desde una posición en que un individuo disfruta toda la

ventaja, hasta otra en que el otro individuo tiene toda la ventaja, pasando por alguna clase de

posición de compromiso. Sin una función W bien definida; esto es, sin supuestos referentes a las

comparaciones interpersonales de utilidad, resulta imposible decidir cuál de tales puntos es el

mejor. El punto mejor de la curva de contrato generalizada puede determinarse mediante el

conjunto de nociones éticas que definen a una función de bienestar social y sólo de ese modo».102

Para Bergson, los valores éticos de los individuos componen las variables de la función

de bienestar social, junto con las restricciones adecuadas y un conjunto de condiciones de primer

y segundo orden que proporcionen el mayor valor para la función de bienestar social. En el

CAPÍTULO II

107

primer orden hay un método de evaluación, para cada individuo, de las consecuencias que

cualquier decisión social tiene; el segundo orden, que equivaldría a un juicio de bienestar, estaría

constituido por la evaluación de las consecuencias para todos, basada en las evaluaciones de los

individuos. Es decir, a partir de las valoraciones individuales se construyen funciones de utilidad

individual, que serán posteriormente los índices de las funciones de bienestar social. El objetivo

de una función de bienestar social es resolver el problema del conjunto óptimo de impuestos y

subsidios que proporcionen el mayor bienestar a la sociedad.

Es decir, Bergson y Samuelson hacen incidir el bienestar individual en las cestas de

consumo de cada individuo, de ahí que se denominen funciones de bienestar individualistas,

dado que lo único relevante en la evaluación de las asignaciones por parte de los individuos es

su propio bienestar material. Si la utilidad de cada individuo sólo depende de su propio consumo

no habrá externalidades, con lo que se logra una de las condiciones fundamentales para obtener

una situación de equilibrio.

Uno de los problemas fundamentales con los que se enfrentan las funciones de bienestar

social basadas en supuestos individualistas es que las relaciones de preferencias e indiferencia

sociales que se generan son transitivas, reflexivas pero no conectantes. Es decir, no sabemos

cómo evalúa el individuo dos situaciones sociales o dos asignaciones alternativas una de las

cuales otorgara más de uno de los bienes que la otra, mientras que ésta última le diera más que

la primera de otro bien distinto.

En segundo lugar, que las funciones de bienestar bajo supuestos individualistas tampoco

escapan al Teorema de Imposibilidad de Arrow. Pero esto lo explicaremos en los próximos

apartados.

CAPÍTULO II

103 Ver la réplica del mismo autor en ARROW, K. J., 1974a, p. 222.

108

3. EL PLANTEAMIENTO ORDINALISTA DE ARROW.

Como se señaló en la introducción una forma alternativa de considerar las preferencias

sociales, sin tener que ocuparnos de comparar las funciones de utilidad de los distintos

individuos, es a través de algún mecanismo de votación.

Desgraciadamente, todos los mecanismos de votación se hallan sujetos a paradojas que

generan consecuencias no deseadas en la agregación social de las preferencias y que hace que

ésta no sea un reflejo de las preferencias individuales en cuestiones sociales.

El objetivo de Arrow es imponer unas condiciones mínimas de razonabilidad a estos

mecanismos de votación, o reglas de elección colectiva, que haga que tales efectos perversos

desaparezcan y, sobre todo, que dichos mecanismos no sean susceptibles de manipulación en

sus resultados.

Arrow denomina a las reglas de elección social funciones de bienestar social. Lo que ha

generado una ingente confusión en el ámbito de la teoría. Si definimos una función de bienestar

social (en adelante FBS), como un mecanismo que permita conocer que asignación es la preferida

por los agentes, y en función de esa preferencia cuál es la que le proporciona la máxima

satisfacción, podemos equiparar las funciones de bienestar social que hemos venido analizando

con los mecanismos de votación o reglas de elección social. Sin embargo se ha argumentado103

que un proceso o método de elección no es lo mismo que un juicio de bienestar. Efectivamente,

no es lo mismo: la diferencia es que Arrow hace incidir el enfoque en la génesis del proceso, es

decir, en la génesis de las preferencias sociales y sus mecanismos de agregación, que es donde

se traducen los valores de los individuos y sus juicios acerca del bienestar social. En este sentido

afirma: «mientras Bergson intenta localizar los valores sociales en los juicios individuales sobre

bienestar, yo prefiero situarlos en las acciones emprendidas por la sociedad a través de sus reglas

de formación de las decisiones sociales».

En este sentido no ha cambiado el tema ni el enfoque, se sigue hablando de satisfacción

CAPÍTULO II

109

o utilidad, se sigue hablando de cómo agregarla y se sigue hablando de óptimos sociales. Pero

veamos en primer lugar cuáles son las paradojas que hacen necesario imponer condiciones a

nuestros mecanismos de votación.

3.1. PARADOJAS.

Para agregar preferencias existen una gran variedad de sistemas que son conocidos como

mecanismos de votación. Se puede pensar que si las preferencias de los sujetos están claras y no

sufren alteraciones, es indiferente el uso de un sistema de agregación u otro. Pero esto dista

mucho de ser cierto. Con preferencias idénticas, distintas reglas de votación dan resultados

completamente diferentes, es más, la misma regla de votación da resultados diferentes si se varía

el orden de presentación de las alternativas, o, si diseñamos un caso extremo, no hay forma de

señalar una alternativa ganadora con ningún método de votación

Pero se están adelantando acontecimientos. Definamos primero las reglas de votación

más usuales. En primer lugar tenemos la regla de mayoría según la cual gana el candidato elegido

en primer lugar por más de la mitad de los votantes. En segundo lugar, según la regla de

pluralidad, se elige al candidato que queda situado en primer lugar por el mayor número de

votantes. En tercer lugar el criterio de Condorcet selecciona al candidato que derrota a todos los

demás, en elecciones entre pares de candidatos, en las que se usa la regla de mayoría. Finalmente,

con el recuento de Borda, también llamado voto ponderado, se da a cada una de las m propuestas

una puntuación entre 1 y m en la ordenación de preferencias del votante: m, m-1, m-2, ... 1 y gana

aquella alternativa que obtiene una mayor puntuación. Veamos los resultados de agregación de

preferencias con cada una de estas reglas.

Supongamos ahora cuatro alternativas y cuatro votantes con la siguiente ordenación de

preferencias (las alternativas han sido ordenadas de más preferidas a menos).

CAPÍTULO II

104 Esto es un ejemplo del problema de las mayorías cíclicas del que nos ocuparemos más tarde.

110

Orden de preferencia

Votante 1 a b c d

Votante 2 b c d a Votante 3 c d a b

Votante 4 d a b c

Tabla XII

Por mayoría simple no hay ganador, así como tampoco lo hay bajo voto plural. Bajo

criterio de Borda todas las alternativas son socialmente indiferentes, ya que todas obtienen la

misma puntuación. Veamos qué ocurre con el criterio de Condorcet. Bajo este criterio a es

preferible a b e indiferente a c, pero d es preferible a a . Si d es preferible a a y a es indiferente a

c, por transitividad d es preferible a c, pero ocurre justo lo contrario, esa decir, c es preferible a

d, con lo que tenemos resultados contradictorios y es imposible determinar cual es la alternativa

socialmente mejor.104 Es cierto que se ha presentado un caso extremo en el que no hay consenso

entre ninguno de los votantes sobre la colocación de las alternativas, pero nada impide que tal

caso se de.

Veamos un ejemplo un poco menos extremo donde sí es posible seleccionar un ganador,

aunque varía con la utilización de las reglas:

Orden de Preferencia

Votante 1 a b c d

Votante 2 a b c d

Votante 3 b c d a Votante 4 c b d a Votante 5 d b c a

Tabla XIII

Bajo mayoría simple no hay ganador. Bajo pluralidad gana a, aunque b parece ser mejor

CAPÍTULO II

111

opción ya que a se encuentra en el último lugar de la ordenación para tres de los votantes. Tanto

bajo Condorcet como bajo recuento de Borda gana b. Los ejemplos muestran que todos los

sistemas presentan problemas: la regla de mayoría simple puede que no de un ganador, la de

pluralidad puede convertir en ganadora a una alternativa socialmente peor, Condorcet puede

generar resultados intransitivos y Borda presenta paradojas como la del orden invertido, donde

se invierte la ordenación social de preferencias si se elimina al vencedor inicial o la paradoja del

vencedor que se convierte en perdedor, donde puede darse el resultado de que la alternativa

inicialmente ganadora pase a ocupar el último lugar.

Los problemas son varios y de diversa índole: imposibilidad de seleccionar una alternativa

socialmente preferida, manipulabilidad de los resultados en función de la agenda de votación, no

correspondencia entre las preferencias individuales y las preferencias sociales, favorecimiento de

comportamiento estratégico y la revelación falseada de prefencias y, en última instancia, colapso

del sistema democrático.

La forma de subsanar estos problemas sería imponer unos requisitos mínimos a las reglas

de elección colectiva que impida que se generen tales resultados perversos. Esta es la tarea a la

que se enfrenta K. J. Arrow a comienzos de la década de los 50 del S. XX.

3.2. EL TEOREMA GENERAL DE IMPOSIBILIDAD.

Arrow, partiendo de una serie de supuestos básicos acerca de las preferencias

individuales y cómo éstas han de ser consideradas, impone una serie de condiciones que ha de

cumplir cualquier regla de votación para ser considerada válida.

Los supuestos serían los siguientes: en primer lugar se consideran aquellos métodos, para

tomar decisiones colectivas, en los que entran en juego las preferencias de todos los individuos

que componen la sociedad. Esto quiere decir, muy grosso modo, que no interesarán los métodos

dictatoriales, en los que entra en juego la voluntad de uno solo, ni los oligárquicos, donde entraría

la de unos pocos, etc. En segundo lugar, se parte del supuesto que las elecciones sociales

CAPÍTULO II

105 En las definiciones se seguirá a SEN, A., 1976, aunque algunas veces se recurra a la obra original o másconcretamente al apéndice que Arrow añade en 1963 para la segunda edición. En ARROW, K. J., «Valoresindividuales y valores sociales» en CASAHUGA, A., Teoría de la democracia. Madrid, Ed. Instituto de EstudiosFiscales, 1980, el postulado de racionalidad colectiva es presentado como una condición, omitiéndose lacondición de dominio no restringido que se supone incluida en la condición P, principio de Pareto.

112

dependen de las preferencias individuales, y a partir de ellas se constituyen. Es decir, la

preferencia social ha de estar basada en las preferencias individuales. En tercer lugar, las

preferencias de los sujetos han de cumplir unos requisitos mínimos de racionalidad formal, a

saber, reflexividad, transitividad y completud, es decir, las preferencias de los individuos han de

constituir ordenaciones. El cuarto y último supuesto será que, para Arrow, la comparación

interpersonal de utilidades no tiene ningún significado, ya que es imposible medir numéricamente

la utilidad que a un individuo le reporta una opción concreta, al ser magnitudes psíquicas

individuales imposibles de comparar y mucho menos de sumar o agregar, tal y como sostenían

los utilitaristas al asignar valores reales a las opciones del agente.

En cuanto a las condiciones, éstas son bien conocidas, y han recibido distintas

formulaciones en la literatura especializada.105

La primera condición exigida por Arrow, denominada luego por Sen ‘dominio no

restringido’, exige que han de ser admisibles todas las ordenaciones individuales lógicamente

posibles de las situaciones sociales alternativas. Esta condición se justifica si se desea encontrar

una FBS que sea universal, en el sentido de que sea aplicable a cualquier comunidad. La

condición permite ordenar todas las alternativas, aunque no se sepa la ordenación concreta que

para algunas de ellas tiene cualquier individuo y, por tanto, prescindir de todo conocimiento

previo de los gustos o valores individuales.

La segunda condición se denomina ‘independencia de alternativas irrelevantes’ y exige

que la elección entre un par x, y esté determinada por las preferencias de los individuos sobre ese

par y no por opciones independientes a él. Arrow nos hace ver la importancia de esta condición

analizando un ejemplo del método de votación preferente. Supongamos que hay tres individuos

(1, 2, 3) y cuatro opciones (w, x, y, z) y los valores de ponderación son 4, 3, 2, 1 para el primer,

CAPÍTULO II

106 Es decir una relación binaria entre alternativas reflexiva, transitiva y completa.

107 Tomado de MUELLER, D. C., 1984, p. 198.

113

segundo, tercero y cuarto puesto. Los individuos 1 y 2 clasifican sus opciones por el orden x, y,

z, w y el individuo 3 las ordena z, w, x, y; de esta forma la elección recaería en x , por lo que si se

elimina y de la lista debería seguir recayendo en x, mas si se hace esto hay un empate entre x y

z.

La tercera condición se denomina ‘criterio débil de Pareto’ y exige que si todos los

individuos prefieren x a y la sociedad debe preferir x a y. Un ejemplo que viola esta condición son

aquellas elecciones sociales que están basadas en algún código tradicional; si el código dicta que

x sea preferida a y, ésta será la preferencia social determinante, aunque algunos individuos

prefieran y a x.

El cuarto y último requisito es la condición de ‘no dictadura’ que afirma que las

elecciones sociales no estarán basadas en las preferencias de un solo hombre, de modo que si éste

prefiere x a y y la sociedad prefiere y a x, la elección social ha de ser y y no x.

De lo que se trata es de construir una ordenación social, de todas las posibles situaciones

sociales alternativas, a partir de un conjunto de ordenaciones individuales de esas situaciones y

que esa forma de construir, esté de acuerdo con las condiciones 1-4 y con los supuestos básicos

enumerados. El resultado al que se llega es el famoso Teorema de Imposibilidad de Arrow que

afirma que, habiendo al menos tres alternativas que puedan ordenar de cualquier modo los

miembros de la sociedad, toda función de elección social que satisfaga las condiciones 1, 2 y 3

y de lugar a una ordenación social,106 ha de ser dictatorial. O lo que es lo mismo, las condiciones

son inconsistentes entre sí. Una demostración simplificada es la presentada por Vickery.107

CAPÍTULO II

108 La definición de un conjunto de individuos decisivo es: «un conjunto de individuos V es determinante de xfrente a y si se elige socialmente a x cuando todo individuo de V prefiere x a y y cada individuo fuera de Vprefiere y a x». ARROW, K. J., 1974a, p. 208.

114

1. Sea D un conjunto de individuos decisivos para x e y Supuesto2. Supongamos que para todos los miembros de D, xPyPu Dominio no restringido y para todos los demás (los de C), yPu Px3. Para la sociedad xPy Definición de D108

4. Para la sociedad yPu Pareto5. Para la sociedad xPu Transitividad6. Pero sólo para los miembros de D, xPu Supuesto7. La sociedad debe preferir x a u con independencia de Independencia los cambios de prioridad de y o de cualquier otra alternativa8. D es decisivo para x,u Definición de D9. D es decisivo para todos los pares de alternativas Repetición pasos 2-810.D debe contener dos o más personas No dictadura11.Dividimos D en dos subconjuntos no vacíos A y B Supuesto12.Supongamos que:

Para A xPyPu Para B yPu PxPara C u PxPy

13.Puesto que para todos los miembros de A y B, yPu , Definición de Dpara la sociedad yPu

14.Si para la sociedad yPx, B es decisivo para y x Definición de D15.Si para la sociedad xPy, entonces para la sociedad xPu Transitividad16.Pero entonces A es decisivo para x,u Definición de D

La primera línea de la demostración supone que existe un conjunto de individuos D que

es decisivo para x e y. Esto no constituye un supuesto dictatorial dado que no sabemos la

composición de D y además porque según la condición de no dictadura D ha de contener dos o

más personas (línea 10). La relación de preferencia de los miembros de D es xPyPu y para el resto

de los individuos yPuPx. Para la sociedad xPy dado que el conjunto D es decisivo para esas dos

alternativas. También para la sociedad yPu, dado que yPu tanto para los miembros de D como

para el resto de los miembros del grupo social y la condición de Pareto exige que si todos los

individuos prefieren y a u la sociedad debe tener la misma preferencia. Por transitividad para la

sociedad x es preferible a u. Y en la elección entre x y u es independiente la evaluación que la

sociedad realice acerca de y, alternativa irrelevante en esta ocasión. Pero x es preferible a u sólo

para los miembros de D, lo cual quiere decir que el conjunto D es decisivo para las tres

alternativas, es decir, que la elección entre esas alternativas vendrá dada sólo por la preferencia

de los miembros de D. Repitiendo los pasos y admitiendo cualquier posible ordenación

CAPÍTULO II

115

individual, tal como exige la condición 1, tenemos que el conjunto D es decisivo para todas las

alternativas.

Si analizamos ahora la estructura de D, exigiendo que contenga dos o más personas nos

encontramos con una estructura de preferencias que, o bien genera un resultado colectivo

intransitivo o bien demuestra que uno de los individuos de D ha de ser un dictador.

Analizaremos en primer lugar en qué consiste este resultado intransitivo también

denominado la paradoja de la votación.

3.2.1. LA PARADOJA DE LA VOTACIÓN.

Recordemos que las condiciones exigidas por Arrow se refieren a las reglas de elección

colectiva. Dentro de éstas la regla de mayoría simple, es decir, que la opción elegida haya sido

votada por -como mínimo- la mitad de los votantes, es la regla de elección dominante en la

mayoría de los países democráticos. Esta popularidad no es gratuita, ya que dicha forma de

elección presenta grandes ventajas. Por ejemplo, frente a la exigencia de unanimidad para

construir la función de preferencia social, ya que dicha exigencia dispararía los costes en la toma

de decisiones y tendría como resultado que en la mayoría de las ocasiones triunfara el statu quo.

Supongamos que redujéramos la exigencia de un medio a un tercio de los votantes, tendríamos

que dos opciones contradictorias podrían ser elegidas simultáneamente; si lo aumentáramos a

dos tercios, aumentaría el riesgo de indecisión, ya que pueden existir menos de dos tercios de los

individuos implicados en la elección (entre dos alternativas A y B) que prefieran A a B, y menos

de dos tercios que prefieran B a A, con lo cual sería imposible tomar una decisión. La solución

a esto es la regla de mayoría. Pero esta regla se encuentra con un problema fundamental y es que

genera resultados colectivos intransitivos aunque parta de preferencias individuales transitivas.

La problemática asociada a una ordenación social intransitiva es que se da una

discontinuidad entre el nivel individual y el colectivo. Esta discontinuidad se produce cuando, a

partir de preferencias individuales transitivas, se produce un resultado colectivo intransitivo

utilizando la regla de mayoría simple. Un ejemplo puede ser clarificador: supongamos tres grupos

CAPÍTULO II

116

de individuos A (25), B (25) y C (10) y tres alternativas x, y, z. Para entender el resultado

intransitivo, hemos de tener en cuenta que las votaciones se realizan entre pares, dos a dos, es

decir, elegimos entre (x - y), entre (y - z) y entre (x - z). El hecho de ordenar de este modo las

alternativas responde al llamado criterio de Condorcet. Según este criterio, si una alternativa

resulta vencedora, al compararla con cada una de las que entran en la votación, ésta ha de ser la

alternativa vencedora. En nuestro ejemplo, la tabla que viene a continuación refleja la ordenación

de preferencias de los tres grupos de individuos: se supone que la opción 1 es preferida a la 2 y

ésta a la 3: por transitividad, 1 es preferida a 3.

1 2 3

Grupo A (25) x y z

Grupo B (25) y z x

Grupo C (10) z x y

Tabla XIV

Como vemos, x es preferida a y por una mayoría de 35 frente a 25, e y es preferida a z por

50 frente a 10 de los votantes. La transitividad exige que x sea preferida a z. Sin embargo nos

encontramos con el resultado paradójico de que z es preferido a x en la misma proporción en que

se daba el resultado contrario, un 58% de los votantes. Esto quiere decir que el resultado es

claramente intransitivo aunque las preferencias de los votantes no lo sean. Ello se traduce en la

imposibilidad de establecer una opción ganadora, ya que x es preferible a y, y es preferible a z,

y z es preferible a x, siendo a su vez x preferible a y e y preferible a z ..., con lo que tenemos un

ciclo y una imposibilidad total de esclarecer cuál es la alternativa ganadora.

La paradoja deriva en parte de la utilización del criterio de Condorcet en la votación, por

lo que podríamos preguntarnos que sentido tiene su uso. En el ejemplo que nos ocupa, ninguna

alternativa obtendría los 31 votos necesarios para constituirse como alternativa ganadora, si sólo

tenemos en cuenta la primera preferencia de cada grupo de votantes. Cualquier otra

consideración vendría además vetada por la exigencia de la independencia de alternativas

irrelevantes, ya que si la elección es, pongamos por caso entre x e y, no ha de influir la posición

CAPÍTULO II

117

que tengan el resto de las alternativas en la evaluación de estas dos opciones.

¿Cuál es realmente la importancia de la paradoja?.

1) En primer lugar, y atendiendo al Teorema de Imposibilidad de Arrow, nos encontramos

que exigir transitividad al ordenamiento social resultante de la elección nos conduce a un ciclo,

donde cada alternativa es preferida a cada una de las demás en elecciones por pares o, mucho

peor, que algún grupo de votantes imponga su preferencia, con lo cual el resultado de la elección

es dictatorial. Éste es el resultado fundamental del Teorema de Imposibilidad.

2) En segundo lugar, este resultado puede conducirnos a que la elección venga dada, no

por las preferencias de los votantes sobre las alternativas, sino por el orden en que esas

alternativas sean presentadas. Esto quiere decir que si en el ejemplo anterior empezamos a

confrontar x con y, encontramos que la alternativa ganadora sería z, mientras que si la

confrontación empieza comparando y con z, la alternativa ganadora sería x.

3) Las implicaciones de lo anterior es que se abre un amplio campo para la manipulación

política, ya que alguien puede lograr que su moción salga ganadora si puede colocarla en último

lugar, lo que implica manipulación de la agenda. Ambos puntos serán tratados en el § 3.2.3.

4) En cuarto lugar, que es imposible postular un equilibrio político lo cual implicaría, por

ejemplo, que cualquier coalición mayoritaria puede formarse para derrotar la opción de cualquier

otra coalición mayoritaria. En el ejemplo anterior, el grupo A puede formar coalición con el C

para así derrotar a B, pero de la misma manera B puede formar coalición con C o incluso con A.

Todo dependerá de los pagos que se realicen a cambio del apoyo político para las opciones que

se traten en cada caso. La busqueda del equilibrio será analizada en el § 3.2.4.

5) Y, en último lugar, que la paradoja se elimina cuando se produce intercambio de votos,

ya que no es necesario que los agentes voten según sus verdaderas preferencias, lo cual, impone

externalidades a los que no comercian que resultarían más beneficiados si el intercambio no se

CAPÍTULO II

109 Por otro lado, el intercambio de votos puede llegar a minar el concepto de representación política. No es fácilexplicar esto (entendiendo representación política en el sentido que la preferencia social ha de estar basada enlas preferencias individuales), especialmente cuando en nuestro contexto político tales intercambios están ala orden del día. Básicamente nos referimos a cuando el intercambio se produce en el nivel de nuestrosrepresentantes, y dado que los programas políticos se presentan en forma de paquetes dados -que el elector nopuede modificar-, es posible que el apoyo a un partido se haya obtenido por una o dos reivindicaciones enconcreto. Si suponemos esto, es posible que votantes particulares dudaran en dar apoyo a un partido queconvirtiera sus intereses en moneda de cambio para obtener otras ayudas u otras reivindicaciones. Peroreconocemos que, a aquellos que manejen una idea de representación y legitimidad política distinta, esta críticapuede parecerles intrascendente. También podemos argumentar, a un nivel más metodológico, que larevelación falseada de preferencias nos deja sin elementos de juicio para decidir qué bienes públicos sonefectivamente preferidos por los sujetos y, en un lenguaje más arcaico si se quiere, cuáles aumentarían subienestar.

110 ARROW, K. J., 1974a, p. 26. Para un útil resumen sobre el tema ver SEN, A., 1976, pp. 199-202.

118

llevara a cabo.109 Trataremos el problema del intercambio en el §3.2.4.

Pero antes de continuar con este análisis veamos cual es la probabilidad de que realmente

se produzca un ciclo en la votación, es decir, si nos encontramos con un resultado normal en la

utilización de la regla de mayoría o es una simple anécdota lógica.

3.2.2. PROBABILIDAD DE APARICIÓN DE CICLOS.

Mas-Colell en la introducción a la versión española de la obra de Arrow Elección Social

y Valores Individuales responde así a esta misma pregunta: «si hay tres alternativas, un número

de individuos N grande, y si todas la N plas de preferencias individuales son igualmente

probables, entonces la posibilidad de una mayoría cíclica es menor que 0,1 (ciertamente no muy

grande); sin embargo, si el número de alternativas crece, la probabilidad de que no exista una

alternativa que domine a las demás por mayoría simple se acerca paulatinamente a 1».110

Es decir, a medida que aumenta el número de alternativas aumenta la probabilidad de

ocurrencia del ciclo. Sin embargo, el hecho de que todas las ordenaciones de preferencias sean

igualmente probables, nos enfrenta a un hecho paradójico; Garman y Kamien llaman a esto una

‘cultura imparcial’, sin embargo, en palabras de A. Sen, esta imparcialidad no parece tener

connotaciones muy deseables: «en esta cultura imparcial, dada la elección entre que yo sea

decapitado al amanecer y que siga viviendo, la probabilidad de que yo prefiera una u otra será

CAPÍTULO II

111 SEN, A., 1976, p. 200.

119

exactamente un medio. Protesto».111 Esto es así dado que con preferencias equiprobables,

cualquier combinación posible de las mismas tiene idéntico índice de probabilidad. En el ejemplo

de Sen, existe la misma probabilidad (un medio y un medio) de que prefiera ser decapitado a que

prefiera seguir viviendo. ¡Realmente no es de extrañar que proteste! En realidad los estudios

probabilísticos sobre la aparición de ciclos no son de gran ayuda, ya que no es fácil resolver qué

supuestos deben ser elegidos para la conformación de estos modelos. Tal como señala Sen, no

se puede recurrir a una rueda de ruleta para determinar las preferencias de los individuos; éstas

vienen configuradas por fuerzas sociales, políticas o culturales. Tampoco se pueden aplicar estas

distribuciones de probabilidad de ordenación de preferencias indiscriminadamente a los

individuos, pues dependiendo asimismo de factores sociales o económicos, habrá ordenaciones

de preferencias que un individuo concreto nunca poseerá. Incluir estas consideraciones dentro

del modelo supondrá mucho más estudio empírico del realizado hasta ahora.

Veamos a continuación las implicaciones que se desprenden de la paradoja del voto, en

lo que se refiere a manipulabilidad de agenda y ausencia de equilibrio. No hemos de olvidar que

lo que genera la paradoja es la exigencia de transitividad, no en las ordenaciones individuales,

sino en la ordenación social resultante. De la importancia que se atribuya a este requisito

dependerá en gran parte la evaluación que se realice del Teorema de Imposibilidad de Arrow.

3.2.3. MANIPULACIÓN Y AGENDA.

Uno de los puntos donde se hacía incidir la importancia de la transitividad era en la

posibilidad de manipular la agenda. En ausencia de transitividad, es decir, bajo una mayoría

cíclica, se puede obtener el resultado deseado si se controla la agenda del día, es decir, el orden

en que se presentarán las alternativas a votación.

Manipular la agenda implica tener al menos un conocimiento parcial de las ordenación

de alternativas individuales, lo cual en la mayoría de las votaciones de comité es relativamente

CAPÍTULO II

112 PLOTT, CH. y LEVINE, M. A., «Model of Agenda Influence on Committee Decisions». American EconomicReview, Vol. 68, 1978, pp. 146-160.

120

fácil. Si la primera preferencia de los distintos individuos o grupos de individuos no coincide,

como vimos en el ejemplo de la paradoja de la votación, es fácil conseguir el resultado que se

prefiera manipulando el orden de presentación de las alternativas. Esto implica una considerable

dosis de poder político para aquellos que están facultados para establecer en qué orden se

presentarán las alternativas. Y fundamentalmente implica que la regla de votación utilizada, que

se pretende sea un mecanismo neutral que permita el paso de las preferencias individuales a las

sociales, no cumpla el papel que le ha sido asignado. Es decir, el resultado final dependerá de los

intereses de aquellos que tienen el poder de diseñar la agenda y no de las preferencias de los

individuos sobre las alternativas en cuestión.

Ch. Plott y M. Levine112 han demostrado que la agenda es una variable importante en la

decisión final del grupo y que, de hecho, la agenda influye en el resultado final de la votación.

Para ello diseñan un modelo que es probado experimentalmente con un grupo de sujetos. De los

cuatro experimentos realizados en tres se produjo el resultado predicho por los investigadores

para el que se había diseñado la agenda. Cada resultado fue diferente, como diferente fue el orden

de presentación de las alternativas, a pesar de que los pagos asociados a cada moción para cada

individuo permanecieron constantes. La votación se realiza por mayoría simple dividiendo

sucesivamente el conjunto total de alternativas en dos subconjuntos mutuamente excluyentes.

La forma experimental de diseñar la agenda sería: cada una de las letras, de la A a la E,

llevan un pago asociado para cada individuo. Se divide el conjunto total en dos subconjuntos

mutuamente excluyentes {A,B} y {C,D,E}. Si, por ejemplo, se selecciona el subconjunto

{C,D,E} la siguiente votación se realizará entre {C} y {D,E}. Si se selecciona este último, la

votación final se realizará entre las opciones {D} y {E}. Variaciones en la división de los

subconjuntos constituyen agendas diferentes.

En los experimentos de Plott y Levine se trata de comprobar si el poder de la agenda

CAPÍTULO II

121

radica en la forma de presentar las alternativas. La comprobación trata de establecer qué moción

resultaría vencedora bajo criterio de Condorcet y si produce alguna modificación el hecho de

variar el orden de presentación de las alternativas. A partir de las matrices de pago del

experimento se divide a los sujetos de estudio en cinco grupos cada uno de los cuales

presentaban idéntica matriz de pago y se elaboran los perfiles de preferencia de forma ordinal.

Dicha ordenación de los cinco grupos sería:

Orden de Preferencia

Grupo 1 D B A C E

Grupo 2 B A C D E

Grupo 3 D A B C E

Grupo 4 A B C D E

Grupo 5 C A D B E

Tabla XV

Se ensayan varias formas alternativas de presentarlas mociones. Si se empieza

comparando (A,B) gana A; (B,C) gana B; (C,D) gana C; (D,E) gana D; con lo cual la ordenación

social resultante sería A P B P C P D P E. Si por el contrario comparamos (B,C) gana B; (B,D)

gana D; (D,A) gana A; (A,E) gana A. Aquí la ordenación social resultante sería A P D P B P C

P E. Veamos qué ocurre cuando comparamos todos los pareσ.

1º (A,B)⇒ A

2º (A,C) ⇒ A Si lo que queremos es una alternativa ganadora no existe mayor

3º (A,D)⇒ A problema pues ésta siempre es A (bajo voto sincero), pero si lo

4º (A,E) ⇒ A que se desea es una ordenación social de todas las alternativas

5º (B,C) ⇒ B descubrimos que existe un ciclo entre las alternativas B,C, D.

6º (B,D) ⇒ D En la línea 5 B es preferida a C, en la 8 C es preferida a D.

7º (B,E) ⇒ B Por transitividad B es preferible a D.Pero en la línea 6 tenemos que

8º (C,D) ⇒ C entre B y D gana D.

CAPÍTULO II

113 PLOTT, CH. y LEVINE, M., 1978, p. 152.

114 ECKEL, C. y HOLT, CH., «Strategic Voting in Agenda-Controlled Committee Experiments». American EconomicReview, Vol. 79, 1989, pp. 763-773.

122

9º (C,E) ⇒ C

10º (D,E)⇒ D

Los autores reconocen explícitamente que se da un ciclo113 entre esas tres alternativas y

reconocen asimismo, que fueron incapaces de encontrar un ejemplo no cíclico por el cual, la

probabilidad de un resultado estuviera de acuerdo con su modelo de agenda para cada posible

alternativa. Esto significa que es el resultado intransitivo en el ordenamiento social el que favorece

que la agenda sea manipulable.

Antes se se señaló que de los cuatro experimentos realizados en tres se produjo el

resultado predicho por los investigadores, es decir, el orden de presentación de las alternativas

era determinante en la elección final del grupo. El experimento cuyo resultado fue en contra de

lo predicho puede ser explicado en base a que en dicho experimento se realizó una votación de

tanteo. Dicha votación proporcionó una mayor información sobre las preferencias de los

miembros del comité que las discusiones cualitativas que estaban permitidas por las reglas del

experimento. Se ha de tener en cuenta que cuando los sujetos de decisión conocen las

preferencias del resto de los agentes, es mucho más fácil que surja la conducta estratégica y la

votación de tanteo permitió ese conocimiento. Lo cual quiere decir que este tipo de conducta

actúa como restricción del poder de la agenda. C. Eckel y Ch. Holt,114 en los experiementos

realizados a partir de los estudios de Plott y Levine, también utilizan una estructura de

preferencias que produce un resultado cíclico, para demostrar que la conducta estratégica mitiga

el poder de la agenda.

La cuestión es, ¿qué es lo que determina la manipulabilidad de la agenda? Ellos afirman

que la agenda influye en los resultados de la elección en dos formas: primero, porque limita la

información disponible de los individuos que toman la decisión acerca de los perfiles de

CAPÍTULO II

115 Ibídem, p. 147.

116 SHUBIK, M., «Game Theory and the Study of Social Behaviour: an introductory exposition» en SHUBIK, M.,(Ed.), Game Theory and Related Approaches to Social Behavior. Nueva York, Ed. John Wiley & Sons, 1964.

123

preferencia existentes en el grupo y segundo, porque determina el conjunto de estrategias

disponible para los sujetos que toman la decisión.115 Ninguno de los autores hace referencia a que

esta manipulabilidad pueda obedecer al ciclo existente entre tres de las alternativas. De hecho,

no mencionan el ciclo cuando en las conclusiones afirman que la agenda es un elemento

determinante en la obtención del resultado, pese a que no son capaces de diseñar un modelo en

el que se produzca manipulabilidad sin una mayoría cíclica. En este sentido, si no se desea que

el mecanismo de elección social sea manipulable el requisito de transitividad en el ordenamiento

social es fundamental.

3.2.4. FORMACIÓN DE COALICIONES, INTERCAMBIO DE VOTOS Y MAYORÍAS CÍCLICAS.

Una forma de evitar los efectos de la mayoría cíclica es a través de la formación de

coaliciones. Es en términos de la teoría de juegos y, más concretamente de los juegos de N

personas cooperativos, en que se analiza la formación de coaliciones.

Para exponer los elementos básicos de un juego de N personas, seguiremos a M.

Shubik.116 Tenemos N jugadores denominados 1, 2, 3,..., n. Si queremos hablar de subconjuntos

de estos jugadores escribiremos (1,2) (3,5) o (1,7), que refleja la coalición formada por los

jugadores 1 y 2, 3 y 5 ó 1 y 7. La función característica de un juego es una función v(s), que

asigna un valor a cada conjunto de jugadores, es decir, establece los valores de las distintas

coaliciones que pueden formarse. En un juego de 3 personas habría 8 posibles niveles distintos

de cooperación entre los distintos miembros del grupo.

1º v (θ) = 0 5º v (1, 2) = 0,5

2º v (1) = 0 6º v (2, 3) = 0,5

3º v (2) = 0 7º v (1, 3) = 0

4º v (3) = 0 8º v (1, 2, 3) = 1

CAPÍTULO II

117 El concepto de dominancia es el mismo que el definido para juegos bipersonales, ver capítulo I, § 6.2.

124

En el ejemplo de Shubik, los tres jugadores son tres condados implicados en un programa

colectivo de desarrollo de alguna vía fluvial común. La función característica indicaría: el primer

valor que evidentemente una coalición de nadie obtiene nada; los tres siguientes valores, que

ninguno de los tres condados puede desarrollar ningún programa por si sólo; los dos siguientes,

(quinto y sexto) que la coalición del jugador 2 con el 1 ó el 2 con el 3 proporciona la mitad del

valor del proyecto cooperativo. El séptimo valor indica que el condado 2 puede bloquear

cualquier tipo de proyecto si así le interesa; y el último indicaría el valor de la cooperación de los

tres condados, donde el esfuerzo de los tres proporciona el mayor valor posible.

Una imputación es el total de ganancias obtenidas por cada jugador mediante el juego

cooperativo. Así, la imputación " = (0.2, 0.6, 0.2) indica que el condado 1 y 3 obtienen 0.2 cada

uno del total de 1, que es el valor del proyecto común, mientras que el condado 2 obtiene 0.6, ya

que tiene la facultad de bloquear completamente la acción. Ha de tenerse en cuenta que en una

coalición los miembros del grupo no tienen porque tener el mismo poder.

La solución de los juegos de N personas consistirá en el conjunto de imputaciones que

son de alguna manera estables, es decir, que los miembros de la coalición no tienen incentivos

para salir de ésta. Este conjunto ha de cumplir la condición que ninguna imputación en el

conjunto domine o sea dominada117 por cualquier otra imputación en el mismo conjunto. Una

vez disponemos de los elementos básicos, veamos cómo aplicar este instrumental al estudio de

la regla de mayoría, el intercambio de votos y la formación de coaliciones.

Supongamos que vamos a dividir un pastel entre tres individuos, y que serán esos mismos

individuos quienes, a través de una votación bajo regla de mayoría, decidan qué porción del

pastel tocará a cada uno. La función característica sería:

v (1) = v (2) = v (3) = 0

v (1,2) = v (1,3) = v (2,3) = 1

v (1,2,3) = 1.

CAPÍTULO II

125

De lo que nos está informando la función es, en primer lugar que se necesitan, como

mínimo, dos individuos para poder tomar una decisión, es decir ninguno de ellos podrá decidir

nada si no cuenta con el apoyo de otro miembro del grupo y, en segundo lugar, que sólo son

necesarios dos individuos, de los tres, para poder tomar una decisión. El conjunto de posibles

soluciones, es decir, de imputaciones estables será,: (1/2, 0, 1/2); (1/2, 1/2, 0); (0, 1/2, 1/2). En la

primera solución los individuos 1 y 3 se reparten a medias el pastel y el individuo 2 se queda sin

nada, en la solución dos es el individuo 3 el que no obtiene nada y en la tercera es el 1 el que

queda desposeído. Supongamos que se forma una coalición de los individuos 2 y 3 de tal forma

que la imputación sea (0, 1/2, 1/2). El individuo 1 puede intentar convencer al individuo 2 para

que acepte una coalición alternativa con la imputación (1/3, 2/3, 0), que supone una ganancia para

ambos. Pero esta última imputación, que no pertenece al conjunto de solución, es, según la

teoría, dominada por la imputación (1/2, 0, 1/2) que si pertenece al conjunto, por tanto, esta salida

del conjunto de solución no es estable. Se presume que las imputaciones dentro del conjunto de

solución son más estables que las imputaciones fuera del conjunto, como es el caso de (1/3, 2/3,

0). Pero esta presuposición únicamente se basa en que el individuo 2 no aceptará la propuesta de

1 si prevee más de un movimiento antes de la toma decisión final, un ejemplo de esto puede ser

que el individuo 3 antes de quedarse sin nada proponga a 1 la imputación (2/3, 0, 1/3), que es

mucho mejor resultado para 1. Esta presuposición acerca de la estabilidad del conjunto de

solución es muy fuerte y constituye una de las limitaciones más importantes de la teoría de

juegos de N personas dado que afecta al concepto central de estabilidad del conjunto de

soluciones.

Los amantes de la justicia y la equidad pueden pensar, llegados a este punto, que la

solución ‘debería’ ser (1/3, 1/3, 1/3), donde el pastel se reparte en porciones iguales entre los tres

individuos, lo que se denomina una imputación equitativa, pero recuérdese que la partición se

realiza bajo regla de mayoría, y se necesita únicamente el acuerdo de una mayoría para decidir

los términos del reparto, por tanto, esta solución equitativa es dominada por cualquiera de las

CAPÍTULO II

118 BUCHANAN, J. y TULLOCK, G., El cálculo del consenso. Madrid, Ed. Espasa-Calpe, 1980, p. 184.

126

imputaciones antes descritas, que se encuentran en el conjunto de solución y que implican un

reparto simétrico entre los miembros de la coalición. Tal como afirma Buchanan: «Sobre la

hipótesis de la maximización de la utilidad individual,(...), la imputación equitativa nunca sería

elegida».118 Recuérdese que los supuestos conductuales que se manejan son los mismos que los

analizados en el capítulo uno: individuos maximizadores de utilidad estando la utilidad definida

en función de la cantidad de bienes. En el ejemplo del pastel puede darse el caso de que actúen

restricciones morales basadas en el contacto personal de los miembros del grupo, pero a medida

que aumenta el tamaño del grupo dichas restricciones dejarán de funcionar.

El ejemplo del pastel puede parecer trivial, pero ha de tenerse en cuenta que una

imputación es lo mismo que una asignación, en el sentido de una descripción de la clase y

cantidad de bienes en manos de cada individuo y en qué términos se va a llevar a cabo esa

distribución de bienes teniendo en cuenta sólo las elecciones de los individuos. Si denominamos

x, y, z, a la primera, segunda y tercera imputación de nuestro ejemplo del pastel, las alternativas

serían:

(1/2, 0, 1/2) x

(1/2, 1/2, 0) y

(0, 1/2, 1/2) z

Vemos que la estructura de preferencias de los tres individuos sería.

Para 1 ( x R y P z)

Para 2 (y R z P x)

Para 3 (z R x P y)

Para el individuo 1 x es preferible o indiferente a y, dado que en ambas asignaciones

obtiene lo mismo (la mitad del pastel), pero ambas son preferidas a z, para el individuo 2 ocurre

lo mismo con y y z y para el individuo 3 con z y x. En función de esta ordenación de preferencias

el ordenamiento social resultante es: y P z P x P y ... Es decir, tenemos una mayoría cíclica, por

CAPÍTULO II

119 «En otras palabras, dada la información política y económica y la habilidad para calcular una solución de VonNeumann y Morgenstern, encontraríamos numerosas imputaciones que satisfacen las condiciones, pero notendríamos ninguna guía o criterio que nos capacite para seleccionar una sobre otra». SHUBIK, M., 1964, pp.47-48; «La teoría no proporciona una solución detallada ya que no puede determinar cual es la divisiónracional del botín entre los miembros de una coalición». KAPLAN, A., «Mathematics and Social Analysis», enSHUBIK, M., 1964, p. 85.

120 BUCHANAN, J. y TULLOCK, G., 1980. Ver también MUELLER, D., 1984.

127

tanto no puede ser afirmado que la formación de coaliciones aporte una solución, ya que dicha

solución puede ser cualquiera de las que se encuentra en el conjunto de imputaciones que

constituyen soluciones tal y como éstas han sido definidas. Se formará una coalición, pero

cualquiera de ellas será bastante inestable y por tanto el equilibrio será inexistente.119

Hasta aquí hemos supuesto que los miembros del grupo o comité toman una decisión

acerca de un conjunto de alternativas de una vez y para siempre y que los individuos no van a

volver a formar parte del mismo comité. ¿Qué ocurre si esto no es así? El concepto que estamos

tratando de introducir es el de intercambio de votos. Si los miembros del comité interactúan en

sucesivas votaciones es posible que renuncien a sus preferencias en una serie de cuestiones,

donde las preferencias son más débiles, a cambio de apoyo en ulteriores votaciones donde sus

preferencias son más acusadas. Ha de señalarse que estamos en un modelo en el cual se tiene

en cuenta la intensidad de preferencias, por otro lado la elección no ha de verse como un acto

único, sino como parte de una secuencia de acciones o, en este caso, de votaciones.120 En

términos de teoría de juegos el intercambio de votos es una forma de permitir pagos adicionales.

Dado que no hay un mercado legal de compra-venta de votos estos intercambios se producen

a través de las promesas de apoyo en futuras ocasiones.

Pese a lo anteriormente señalado acerca de las coaliciones, Buchanan y Tullock parecen

cifrar en el intercambio de votos la solución de las mayorías cíclicas. La razón es que el

intercambio aportaría estabilidad a las coaliciones. «Aplicando las reglas estrictas de Pareto para

determinar si una situación social representa un progreso sobre otra, casi cualquier sistema de

votación que permita que tal intercambio de votos tenga lugar sería superior a ese sistema que

CAPÍTULO II

121 BUCHANAN, J. y TULLOCK, G., 1980, pp. 164-165.

122 RIKER, W. y BRAMS, S., «La paradoja del intercambio de votos», en COLOMER, J., (Comp.), Lecturas de teoríapolítica positiva. Madrid, Ed. Instituto de Estudios Fiscales, 1991, pp. 551-590.

128

considera igualmente la importancia de todas las preferencias sobre cada tema (...) y la

prohibición de tales transacciones servirá para impedir un movimiento hacia la superficie

conceptual de la optimalidad social bajo casi cualquier definición de este término».121 Es decir,

el comercio de votos bajo regla de mayoría es un sistema de elección social ‘superior’ a la regla

de mayoría cuando tales pagos adicionales están prohibidos. Las razones aducidas por Tullock

y Buchanan son, en primer lugar, que cuando se prohíbe el comercio de votos no existe

seguridad de que la acción colectiva se realice del modo más productivo y, en segundo lugar, que

nunca se seleccionará una imputación que beneficie a menos de una mayoría simple, es decir,

con comercio de votos podría seleccionarse una alternativa que beneficiase a una minoría si esta

alternativa se demuestra más eficiente económicamente

Respecto a la propuesta defendida por los autores han de ser señaladas dos cuestiones:

en primer lugar que se introduce por la puerta trasera el criterio de productividad o eficiencia

respecto a temas distributivos. En este sentido la selección de las alternativas (asignaciones) ya

no será simplemente la preferida por los agentes, sino la preferida dentro del conjunto de

alternativas más eficientes, y esto no es sino aplicar la regla de mayoría como un medio de

seleccionar entre los distintos óptimos de Pareto.

En segundo lugar, que ni siquiera el intercambio de votos asegura la estabilidad del

conjunto de soluciones en la formación de coaliciones, dado que, tal como señalan W. Riker y

S. Brams,122 tal intercambio se halla igualmente sujeto a paradojas. Dichas paradojas tienen la

estructura de un dilema de prisionero de N personas, donde dada la racionalidad individual (en

el sentido de maximización de la utilidad), cada uno de los sujetos gana en los intercambios

individuales pero el resultado colectivo es peor, es decir, existen menos beneficios para todos que

si tales intercambios no se hubieran llevado a cabo. La razón de ello es que se tienen en cuenta

CAPÍTULO II

123 MUELLER, D. C., 1984, p. 63.

124 Ver AXELROD, R., La evolución de la cooperación. Madrid, Ed. Alianza Universidad, 1986 y GÓMEZRODRÍGUEZ, A., «Razones para la cooperación» en ARAMAYO, R., MUGUERZA, J. y VALDECANTOS, A., (Comps.)El Individuo y la historia. Barcelona, Ed. Paidós, 1995, pp. 43-63.

129

los costes externos de los intercambios. Dichos costes son producto de un cambio en el resultado

original votando sin intercambios, y los sufre aquel que no participa en el mismo. Pero dado que

es individualmente racional participar en tales intercambios, pues de todas formas se van a sufrir

los costes externos de los intercambios del resto de los miembros del comité, la paradoja es

ineludible. Aunque Buchanan y Tullock tienen en cuenta los costes externos de los sujetos que

no realizan intercambios, ambos piensan que la suma total de beneficios excede a las pérdidas,

por tanto, el intercambio de votos se constituye como un juego de suma positiva. Tal como

afirma D. C. Mueller:123 «Una diferencia importante que separa a críticos y defensores del

intercambio radica en sus puntos de vista sobre si la votación es un juego de suma positiva o

negativa (o en el mejor de los casos de suma cero). Si la segunda alternativa es la correcta, se trata

de un juego obviamente perjudicial, y cualquier cosa que mejore su eficiencia sólo empeorará el

resultado final».

Por otro lado, y como se vió más arriba, la formación de coaliciones no proporciona un

equilibrio, pues el miembro que permanece fuera siempre tendrá incentivos para romper la

coalición formada por los otros miembros. Es decir, si consideramos el intercambio de votos

como un dilema del prisionero, y los temas son votados de forma secuencial, los miembros de

la coalición que se haya formado siempre tendrán un incentivo para la defección, obteniendo para

sí todas las ganancias del intercambio. Esto puede ser resuelto con las herramientas planteadas

para el dilema del prisionero en forma de soluciones cooperativas,124 pero si no existen acuerdos

vinculantes dichas soluciones carecen de estabilidad.

La conclusión que se desprende es que sin consideraciones adicionales, como es el

criterio de eficiencia económica, ni las coaliciones ni el intercambio de votos constituyen una

CAPÍTULO II

130

solución al problema de las mayorías cíclicas y que su empleo puede significar, en determinadas

ocasiones, más perjuicio que beneficio cuando de lo que se habla es de bienestar social.

4. VÍAS DE ESCAPE AL TEOREMA GENERAL DE IMPOSIBILIDAD.

Cuando se analizó la demostración del Teorema General de Imposibilidad se pudo

observar que la ordenación social resultante nos conducía o bien a una mayoría cíclica o bien a

un resultado dictatorial. De ahí la importancia de analizar las implicaciones de la mayoría cíclica

y algunos mecanismos que se han propuesto para evitar su resultado. Pero el Teorema General

de Imposibilidad no depende únicamente de la transitividad del ordenamiento colectivo de las

alternativas, depende de cada una de las condiciones inicialmente propuestas por Arrow. Cada

uno de los intentos de escapar al Teorema pasa por el sacrificio o la modificación de alguna de

las condiciones.

A continuación prestaremos especial atención al sacrificio de la condición de dominio no

restringido. La eliminación de independencia de alternativas irrelevantes y de la condición de

Pareto son propuestas por A. Sen. Asimismo J. Harsanyi afirma que la eliminación de la

condición de independencia de alternativas irrelevantes permitiría la construcción de funciones

de bienestar basadas en la utilidad cardinal. La sustitución de la condición de no dictadura es

parte de la propuesta de la Escuela de Virginia con Buchanan y Tullock a la cabeza. Para no

romper la línea argumental y no abundar en repeticiones estas vías de escape al Teorema General

de Imposibilidad serán tratadas al hilo de las propuestas de estos autores lo cual cierra el presente

capítulo.

CAPÍTULO II

125 BLACK, D., «On the Rationale of Group Decision Making». Journal of Political Economy, 56, (1948). Haytraducción castellana en ARROW K. J. y SCITOVSKI, T., (Comps.), 1974, pp. 172-187.

126 No debemos perder de vista que, cuando se habla de preferencias individuales se mantienen los mismossupuestos conductuales analizados en el capítulo uno, tanto en contextos de certeza como de incertidumbre.D. Black, afirma explícitamente: «Estamos utilizando aquí la teoría de la valuación relativa de la cienciaeconómica ortodoxa, ya sea la teoría de la utilidad relativa o la teoría de las curvas de indiferencia». Ibídem,p. 173 de la traducción castellana.

127 COLOMER, J., El arte de la manipulación política. Barcelona, Ed. Anagrama, 1990. Especialmente el capítuloII.

131

4.1. RESTRICCIONES A LAS ORDENACIONES DE PREFERENCIAS.

Como se recordará, la condición de dominio no restringido exigía la admisibilidad de

todas las ordenaciones individuales lógicamente posibles. Es decir, para un individuo y tres

alternativas existen seis posibles ordenaciones. Postular la eliminación del dominio no restringido

supone exigir que alguna de las posibles ordenaciones no debe darse. Por ejemplo para tres

alternativas x, y, z, el individuo i no puede presentar la ordenación xRyRz.

Antes de la publicación del Teorema General de Arrow, el profesor D. Black había

propuesto la teoría de las preferencias single peacked como una forma de evitar las mayorías

cíclicas.125 Dicha teoría se constituye como una restricción a las posibles ordenaciones

individuales. Veamos en que manera.126

La restricción impuesta en este modelo es que los miembros del grupo que realizarán la

elección ordenarán sus preferencias de forma que, representando éstas gráficamente en la abcisa

de un eje de coordenadas y figurando en la ordenada el orden de preferencia, las curvas que se

tracen de un punto a otro tengan un solo pico (single peacked). Para ello es condición necesaria

que los agentes ordenen sus alternativas en función de un único criterio.¿Qué significa esto? J.

Colomer en El Arte de la Manipulación Política, donde se analiza la transición española con

herramientas de teoría de las votaciones y teoría de juegos, pone un curioso ejemplo.127 Tras la

muerte de Franco, las opciones que se presentaban eran: C, continuidad con las leyes

fundamentales del franquismo, r, una tibia reforma de dichas leyes y una democracia limitada y

R, ruptura total con el régimen anterior y el establecimiento de un nuevo marco legal. Para su

CAPÍTULO II

132

representación las alternativas se ordenan bajo el criterio de su mayor o menor continuidad con

el pasado, es decir, R, r y C , ruptura, reforma y continuidad. En función de ello caben seis

ordenaciones distintas de preferencias tal como muestra la figura XIV. Los grupos II, III, IV y

V presentan preferencias de un sólo pico. Veamos qué ocurre con los grupos I, y VI.

Figura XIV

Según Colomer estas ordenaciones correspondían a:

I) «Oposición revolucionaria, que incluye a algunos anarquistas, marxistas revolucionarios y

nacionalistas radicales. Entre las opciones presentadas, prefieren la ruptura, pero antes que una

reforma que satisfaría sólo a medias las reivindicaciones populares e hipotecaría las posibilidades

de ruptura durante muchos años, preferirían preservar la militancia revolucionaria y seguir

luchando contra la continuidad»

VI) «Involucionistas o ultras, activos en algunas instituciones franquistas (...) Aspiran a la

continuidad, pero ante una reforma democratizante que diluyera la vigencia de los principios

ideológicos franquistas, preferirían volver a la confrontación abierta con ‘rojos y separatistas’

para poder seguir aspirando a instaurar una nueva dictadura»

Como se ve hay, dos criterios subyacentes a la ordenación: por un lado, un criterio

gradual, de mayor a menor continuidad con el pasado y por otro posiciones maximalistas que

utilizan los criterios que han sido citados. Colomer demuestra que con determinada distribución

de votantes entre estos grupos se puede producir un ciclo.

CAPÍTULO II

128 Si cada alternativa es enfrentada a cada una de las otras, se realizarán m (m -1)/2 (donde m son el número dealternativas) votaciones, mientras que en la práctica real se realizan (m-1). Si contamos con tres alternativasx, y, z y en la votación entre x e y resulta victoriosa x y entre y y z gana y, suponiendo transitividad yatendríamos alternativa ganadora (x) y se habrían realizado (m-1) votaciones; si no suponemos transitividad,habría que realizar la votación entre (x, z) con lo que tendríamos m (m-1)/2.

129 BLACK, D., 1974, pp. 177-178 de la traducción castellana.

133

Pero el profesor D. Black va más allá. Black demuestra que, si las preferencias de los

agentes que tienen que tomar la decisión tienen una sola cumbre o un solo pico, el resultado de

la votación será transitivo y será elegida aquella alternativa situada en la mediana si el número de

agentes es impar. Téngase en cuenta que lo que está postulando la teoría es la eliminación de las

ordenaciones de los grupos I y VI, de modo que ya no son válidas todas las ordenaciones

posibles, como postulaba Arrow, sino aquellas que cumplen la propiedad de tener un solo pico.

El resto de los supuestos del modelo será: que las mociones se presentan de una en una

a los miembros que tienen que realizar la votación, que estos ordenan las alternativas según sus

preferencias, que en la votación cada alternativa es enfrentada con cada una de las otras y que el

número de votantes es impar.128 Veamos su demostración.

«Sea n el número de miembros del comité, donde n es non. Suponemos que existe un

ordenamiento de los puntos del eje horizontal que representan las mociones, de modo que las

curvas de preferencia de todos los miembros, tienen un solo pico. Llamamos O1, O2, O3, ..., a los

puntos del eje horizontal correspondientes a los óptimos de los miembros, por su orden de

presentación. El óptimo de en medio o mediana, será la moción (n+1)/2 (...) Entonces O (n+1)/2 será

la moción que adopte el comité. Supongamos que se compara este valor con cualquier otro

menor, por ejemplo ah. Dado que (n+1)/2 miembros tiene óptimos en, o por encima de O(n+1)/2,

a medida que avanzamos de izquierda a derecha de ah a O(n+1)/2, por lo menos (n+1)/2 están

ascendiendo, o sea las de los miembros con óptimos en, o a la derecha de, O(n+1)/2. Por lo menos

(n+1)/2 miembros prefieren O (n+1)/2 a ah y, en una votación contra ah, O(n+1)/2 obtendrá una

mayoría de por lo menos (n+1)/2:n, y esto será suficiente para conferirle, por lo menos, una

mayoría simple».129

CAPÍTULO II

134

Un ejemplo lo hará ver más claro: supongamos cinco alternativas que van de extrema

izquierda a extrema derecha pasando por izquierda, centro, derecha. Se denotarán con las letras:

EI, I, C, D, ED, y en ese mismo orden serán ubicadas en el eje de coordenadas, es decir, las

alternativas se ordenan en función del criterio ideológico que va de extrema izquierda a extrema

derecha. Y cinco votantes con las siguientes ordenaciones (los óptimos de cada uno de ellos es

la alternativa situada en primer lugar). Obsérvese que todas las ordenaciones presentan un solo

pico.

V.1: (I, EI, C, D, ED)

V.2: (C, D, I, ED, EI)

V.3: (ED, D. C, I, EI)

V.4: (EI, I, C, D, ED)

V.5: (D, ED, C, I, EI)

En una votación donde se compara cada alternativa con cada una de las restantes, los

resultados serían:

Votación Votos Resultado

EI, I 1- 4 I

I, C 2 - 3 C

C,D 3 - 2 C

C, ED 3 - 2 C

D, ED 4 - 1 D

Tabla XVI

El óptimo en la mediana es C, ésta sería la moción (n+1)/2. Si lo comparamos con

cualquier otro menor, por ejemplo I, (n+1)/2 miembros tienen óptimos en o por encima de C; si

avanzamos de izquierda a derecha; por lo menos (n+1)/2 curvas están ascendiendo, la de los

miembros a la derecha de C, y así la mayoría obtenida es de (n+1)/2 : n, es decir (3:5) (tres de

cinco). En el caso de que el número de miembros sea par habrá un empate en la votación, de ahí

el requerimiento de que el número de votantes sea impar.

CAPÍTULO II

130 MAY, K. O., 1954, pp. 1-13.

135

Al restringir las ordenaciones de preferencia de forma que sólo presente una cumbre en

la ordenación el resultado de la votación siempre presenta una ordenación colectiva transitiva, es

decir, eliminando la condición de dominio no restringido e imponiendo la restricción de un sólo

pico se soluciona el problema de las mayorías cíclicas.

La cuestión es si esta restricción es factible, es decir, si los individuos normalmente

ordenan las alternativas obedeciendo a un único criterio. Los estudios experimentales muestran,

no sólo que esto no es cierto, sino que cuando existe más de un criterio, y estos son conflictivos

entre si, el patrón de preferencia individual puede llegar a ser intransitivo, lo cual no hace sino

trasladar el problema del nivel colectivo al individual.

K.O. May,130 partiendo de resultados experimentales con 62 college students concluyó

que la intransitividad es un resultado natural de la necesidad de elegir entre varias alternativas de

acuerdo con criterios conflictivos entre sí.

Los sujetos fueron enfrentados a tres alternativas que eran la elección de posibles parejas

matrimoniales; los criterios utilizados para la evaluación de dichas parejas eran la inteligencia, la

apariencia y la riqueza. Los sujetos nunca fueron enfrentados con las tres alternativas al mismo

tiempo y la indiferencia quedaba excluida. Las características de los/las posibles compañeros/as

eran:

x: inteligente, poco atractiva/o y acomodada/o.

y: inteligente, muy atractiva/o, pobre.

z: bastante inteligente, atractiva/o, rica/o.

De los 62 sujetos de estudio, 17 (un 27,4%) presentaron una ordenación de preferencias

intransitiva donde xPy; yPz; zPx. K.O. May concluye que este patrón de preferencia se explica

como resultado de elegir la alternativa que es superior en dos de los tres criterios, que serían la

inteligencia y la riqueza.

Las conclusiones que se desprenden de lo anterior no dejan de ser paradójicas. Si los

CAPÍTULO II

131 PLOTT, CH., «A Notion of Equilibrium and its Possibility under Majority Rule». American Economic Review,1967, pp. 787-806.

136

agentes usan un sólo criterio en la evaluación de las alternativas, podemos tener un resultado

transitivo en la agregación de las preferencias, pero dada la irrealidad de este supuesto, la

investigación se encamina a conservar ordenaciones individuales que topológicamente presenten

una sola cumbre pero utilizando más de un criterio de juicio, y este nuevo enfoque nos enfrenta

a la posibilidad de que las ordenaciones individuales presenten intransitividades. Es cierto que

esto sólo se da cuando los criterios de selección de las alternativas son conflictivos entre sí, pero

en el estudio de K. May no se da ninguna definición de esa conflictividad. Lo máximo que

podemos extraer de los experimentos es que los individuos no tienen una jerarquía en sus

criterios de elección, de la forma: ‘las/ los prefiero inteligentes, dentro de estas/os guapas/os y

si tienen dinero mejor’, aunque probablemente esta no sea la jerarquización de criterios

dominante en nuestra sociedad. Sarcasmos aparte también puede ser postulado que la selección

de cada alternativa viene dada por patrones culturales, sociales e incluso morales, que elegir una

alternativa sobre otra implica una forma de vida. Lo difícil es encorsetar todo esto dentro del

estrecho margen que nos ofrece el formalismo.

De una u otra manera el siguiente paso que se imponía en la investigación eran las

preferencias unimodales pero con más de una densidad de criterio, es decir, se trata de que

topológicamente sigan manteniendo una sola cumbre, logrando ésta con más de un criterio de

juicio. Ch. Plott131 proporciona un conjunto de condiciones suficientes para la consecución un

equilibrio en x. Estas condiciones serían:

1) Que los votantes indiferentes no voten sobre la moción.

2) Que haya al menos un votante i a quien x proporcione la máxima utilidad.

3) Que los (m-1) votantes restantes, un número impar, puedan ser divididos en pares, i

e i’, de modo que los intereses de los votantes i e i’ sean diametralmente opuestos en dirección

y volumen de utilidad.

CAPÍTULO II

132 RIKER, W., «Implicaciones del desequilibrio de la regla de la mayoría para el estudio de las instituciones», enCOLOMER, J., (Comp.), 1991, p. 535.

133 INADA, KEN-ICHI., «The Simple Mayority Decision Rule», Econometrica, Vol. 37, nº 3, 1969, pp. 490-506.

137

De estas condiciones, Riker concluye: «Lo interesante de las condiciones de equilibrio de

Plott es que la probabilidad de que sean satisfechas en el mundo real es extremadamente remota.

Incluso si, por alguna extraña casualidad, fueran satisfechas, seguiría siendo cierto que un ligero

cambio de las preferencias de un votante desestabilizaría el equilibrio, ya que decantaría el

necesario par de opuestos. Por tanto, a efectos prácticos, podemos decir que, dados m>2 votantes

y n≥ 2 dimensiones de juicio con continuas alternativas, el equilib rio de los gustos es

inexistente».132

El término equilibrio ha de ser entendido aquí como la posibilidad de seleccionar o no una

alternativa. Las mayorías cíclicas constituyen de por sí un desequilibrio, y esto es lo que se

intenta subsanar.

La condición single peaked impuesta a las ordenaciones de preferencia individuales no

es la única restricción de dominio que ha sido propuesta, aunque sí una de las más atrayentes por

su simplicidad. Ken-Ichi Inada133 presenta un desarrollo expositivo en el que resume otras

condiciones propuestas por distintos autores, donde cada una elimina alguna posible

configuración de preferencia.

Estas condiciones son:

(A) Preferencias dicotómicas. (Inada 1964).

(B) Preferencias eco.(Inada 1969).

(C) Preferencias antagónicas. (Inada 1969).

(D) Preferencias de un solo pico. (Arrow 1951).

(E) Preferencias single-caved. (Inada 1964).

(F) Preferencias separadas en dos grupos. (Inada 1964).

(G) Preferencias de valores restringidos. (Sen 1966).

CAPÍTULO II

138

(H) Preferencias tabú. (Inada 1969).

Las condiciones A, B y C proporcionan una ordenación social transitiva tanto si el

número de votantes es par como impar. Las condiciones D, E, F y G la proporcionan cuando el

número de votantes es impar. Cada una de estas condiciones va seguida de un teorema que

prueba que la ordenación social resultante es transitiva. Por razones de espacio se omitirán las

pruebas; por otro lado, más que la estructura matemática lo que interesa aquí es el significado de

las condiciones.

(A) Preferencias dicotómicas: cada votante clasifica las alternativas en dos grupos, de

forma que es indiferente entre las alternativas pertenecientes a cada grupo, aunque la clasificación

de alternativas puede diferir de un votante a otro. Es decir, si consideramos tres alternativas x, y,

z, xPyPz no está en la lista de posibles ordenaciones de los votantes.

(B) Preferencias eco: el nombre de esta condición viene dado porque si un individuo tiene

una ordenación, pongamos por caso, xPyPz, el resto de los individuos tiene la misma ordenación.

Aunque esta condición es trivial, puede ser generalizada a un caso que no lo es: si un individuo

tiene la ordenación xPyPz, en la lista de posibles ordenaciones de esas tres alternativas no se dará

zPx. Aunque si xPyPz no está en la lista, zPx puede estarlo. Es decir, si uno de los votantes

presenta xPyPz el resto no pondrá la alternativa más desagradable para éste como su primera

preferencia, aunque sí pueden ordenar su segunda preferencia sobre la primera, esto es, yPx.

(C) Preferencias antagónicas: bajo esta condición, la sociedad constaría de dos grupos de

votantes con preferencias completamente contrarias, de modo que si para un grupo xPyPz, para

el segundo grupo zPyPx. Puede existir un tercer grupo que ordene la segunda alternativa de los

dos primeros como su primera o tercera preferencia, permaneciendo indiferente entre la primera

y la tercera alternativa de los otros dos grupos, esto es, yPxIz o xIzPy.

(D) Preferencias de un solo pico. Una forma alternativa a la explicada anteriormente es

que una de las alternativas no puede ser nunca la peor en la lista de posibles ordenaciones. Si

tenemos tres votantes y tres alternativas para el individuo 1 xPyPz para 2 yPzPx y para 3 zPyPx.

CAPÍTULO II

134 SEN, A., 1966, p. 493.

139

Como se puede apreciar, y no aparece nunca en último lugar. Es fácil comprobar que, si

representamos estas ordenaciones en un eje horizontal, todas presentan un solo pico.

(E) Preferencias single-caved: al igual que en el caso anterior, una alternativa no puede

nunca ser la mejor en la lista de posibles ordenaciones individuales.

(F) Preferencias separadas en dos grupos: una alternativa no puede estar en el centro en

la lista de posibles ordenaciones individuales.

(G) A. Sen reunió estas tres últimas condiciones en una sola denominada value restricted

preferences. Básicamente, la condición es que, para un número cualquiera de votantes y tres

alternativas, exista alguna alternativa del trío que no esté nunca en último lugar en la ordenación

de un votante o, alguna que no esté nunca en último lugar o, nunca en el lugar intermedio. El

teorema que se deduce de estas condiciones reza: «El método de decisión de mayorías es una

función de bienestar social que satisface las condiciones de Arrow 2-5 y la condición de

consistencia para algún número de alternativas con tal que las preferencias de los individuos

interesados en cada terna de alternativas sea value restricted y el número de individuos

interesados sea impar»134

(H) Preferencias tabú: ni xIyIz ni yPx están en la lista de posibles ordenaciones; yPx es una

preferencia tabú independientemente de cualquier ordenación que presente la lista de posibles

ordenaciones individuales, en esto se distingue de la condición (B).

* * *

De todas las restricciones de dominio propuestas, es decir, de todas las exclusiones e

imposiciones a los perfiles de preferencia parece desprenderse una total falta de realismo, dado

que, cómo impedir que determinadas configuraciones de preferencias se presenten o no, es decir,

por qué medio se producen esas restricciones. Es cierto que pueden ser excluidas por educación,

como por ejemplo no presentar ninguna configuración de preferencia donde la mejor alternativa

constituya una violación de cualquier derecho fundamental de los individuos. También pueden

CAPÍTULO II

140

ser excluidas por legislación. Como ocurre con el consumo de drogas o el uso obligatorio del

cinturón de seguridad. Pero así planteado, los estudios sobre restricciones de preferencia no

pueden ser presentadas fuera del marco institucional, social y cultural al que pertenecen.

Una cuestión adicional que se plantea es la legitimidad para excluir posibles ordenaciones

de preferencia de la elección social. Si bien es cierto que dentro de la elección hay perfiles de

preferencia que no se tienen en cuenta, como las preferencias sádicas o las envidiosas, se ha de

tener en cuenta que se está tratando de conseguir una regla general para cualquier posible

elección. Eliminar la condición de dominio no restringido supone pérdida de generalidad en la

teoría, pudiéndose llegar al extremo de que cada elección sea un caso único y singular.

Finalmente la condición de dominio no restringido nos garantiza disponer de una

ordenación social sin necesidad de saber absolutamente nada acerca de los perfiles de preferencia

individuales, ya que todos y cada uno de ellos son aceptables. Las restricciones impuestas

supondrían mucho más estudio empírico del que dispone la teoría, encorsetada en la

demostración de teoremas formales.

Parece que la solución al Teorema General de Imposibilidad de Arrow no pasa por la

eliminación de la condición de dominio no restringido. Veamos qué ocurre con el resto de las

condiciones al hilo de investigaciones concretas.

5. LÍNEAS ACTUALES DE INVESTIGACIÓN.

Tras las aportaciones de Arrow la Teoría de la Elección comienza a consolidarse.

Teóricos, provenientes de distintos campos de investigación empiezan a interesarse, desde cada

disciplina, por los problemas que presenta la elección social. En este apartado se verán tres de

esas investigaciones.

J. Harsanyi presenta un enfoque normativo y sostiene que es posible la construcción de

una función de bienestar social cardinal basada en las funciones de utilidad de V. Neuman y

Morgenstern.

A. Sen rechaza los criterios utilitaristas de distribución, pues ninguna de la teorizaciones

CAPÍTULO II

135 HARSANYI, J. C.,« Morality and the theory of rational behaviour» en Utilitarianism and Beyond, Edited bySEN, A. K. y WILLIAMS, B., 1982, pp. 39-62; «El bienestar cardinal, la ética individualista y las comparacionesinterpersonales de utilidad. En ARROW, K. y SCITOVSKY, T., (comps.)., 1974, pp. 64-82; Essays on Ethics, SocialBehaviour and Scientific Explanation. Dordrecht, Ed. Reidel, 1976.

141

parece que haya podido solucionar el problema de la prioridad de la maximización sobre la

distribución, y plantea una forma de realizar comparaciones interpersonales de utilidad de manera

parcial.

Finalmente J. Buchanan y otros representantes de la escuela de Virginia, con un enfoque

puramente positivista, defienden el criterio de unanimidad en un análisis de costes y beneficios

que son impuestos a los sujetos con la utilización de tales reglas.

Ninguno de los enfoques es totalmente satisfactorio, en el sentido de solucionar los

problemas examinados hasta aquí, ni totalmente desencaminado. Cada uno aporta soluciones

a áreas concretas y es, de momento, todo con lo que contamos.

5.1. EL ENFOQUE NORMATIVO: J. HARSANYI.

Harsanyi135 defiende el uso de comparaciones interpersonales de utilidad y por tanto la

posibilidad de su medición, siguiendo los postulados V. Neuman y Morgenstern sobre utilidad

esperada, para construir una función de bienestar social cardinal que sea igual a la media

aritmética de las utilidades de todos los individuos que forman la sociedad. Se intentará aclarar

que significa todo esto.

Harsanyi defiende que las comparaciones interpersonales son proposiciones de hecho,

basadas en principios de ‘lógica inductiva’. Tales principios son: el principio de la diferenciación

inoperante y el principio de la correlación no probada. Según este autor, los indicadores de la

utilidad que los individuos otorgan a las diferentes opciones son, por un lado, las elecciones

efectivas que realizan, si un individuo debe elegir entre el puesto de trabajo A y el B y elige A es

que A le reporta mayor utilidad, y por otro lado, las expresiones, verbales o no, de satisfacción

o insatisfacción de los individuos. Por tanto, afirma: «si dos objetos o seres humanos muestran

un comportamiento similar, en todos sus aspectos importantes sujetos a observación, el supuesto

CAPÍTULO II

136 HARSANYI, J., 1974. p.76.

137 Ibídem, p. 79.

142

de que pueda existir entre ellos alguna oculta diferencia no observable, debe considerarse como

una hipótesis completamente gratuita contraria al método científico».136 Este es el principio de

diferenciación inoperante.

Pero hay multitud de ocasiones en que las elecciones y las expresiones son diferentes. En

estos casos lo que se debe investigar es cómo las diferencias psicológicas de las personas afectan

a su grado de satisfacción. Si ante la cara radiante del individuo x al obtener el puesto de trabajo

A, se opone el rostro entristecido de y ante el mismo puesto de trabajo, se tratará de encontrar

las diferencias psicológicas que causan la discrepancia. Puede ser que el salario, que para x es

magnífico pues vive solo, sea completamente insuficiente para y que mantiene una familia

numerosa, o bien que el trabajo es tan absorbente que no deja prácticamente tiempo libre, cosa

que a x le agrada, pues es sumamente introvertido y solitario, y a y le disgusta profundamente

pues no tiene tiempo para disfrutar de su familia. Según Harsanyi: «todos nuestros conocimientos

relativos a las leyes psicológicas de la satisfacción, derivan en última instancia, de la observación

de la forma en que diferentes variables (psicológicas y de otra clase) afectan las satisfacciones que

obtiene un individuo en situaciones diversas. Por lo tanto no hay pruebas empíricas directas de

la forma en que se vean afectadas las satisfacciones de los individuos por variables que no son

susceptibles de variar».137

Estas variables pueden ser características mentales o biológicas innatas. Y aquí es donde

entra el segundo principio, el de correlación no probada, pues, si alguien sostiene que esas

variables, cuya influencia no es susceptible de verificación empírica directa, tienen influencia

sobre las distintas satisfacciones individuales, primero ha de probarlo. En suma lo que está

afirmando Harsanyi es que la diversa susceptibilidad de la satisfacción es una variable que puede

suponerse que existe pero cuya existencia no es susceptible de ser probada, en base a esta

imposibilidad establecer su influencia no es sino una suposición sin mayor validez.

CAPÍTULO II

138 ROBBINS, L., 1980,p. 187. El ejemplo es prácticamente el mismo que el aparecido en ROBBINS, L., 1938

143

Esta última argumentación es una respuesta al ejemplo planteado por el profesor Robbins

en su crítica de las comparaciones interpersonales de utilidad. Robbins afirmaba: «También es

cierto que si un representante de alguna otra civilización nos asegura que estamos equivocados,

que los miembros de su casta (o de su raza) son capaces de experimentar una satisfacción diez

veces mayor con un ingreso determinado, que los miembros de una casta inferior (o una raza

‘inferior’) no podríamos refutarlo. Podríamos mofarnos de él. Podríamos indignarnos y decir que

la valoración es odiosa, germen de guerra civil, de infelicidad, de privilegios injustificados, etc.,

etc. Pero ni podríamos demostrar objetivamente su error, ni que la razón estuviera de nuestro

lado».138

Para Harsanyi al no poder probar el ‘error del Brahma’, que afirma que una variable, la

pertenencia a una casta, cuya influencia no es susceptible de verificación directa, influye en el

grado de satisfacción del individuo es causa suficiente para afirmar que tal influencia no existe.

La cuestión es que esto tendría que ser igualmente probado. Las afirmaciones de Harsanyi

parecen una toma de postura teórica ante un problema insoluble, al menos, planteado en estos

términos.

Básicamente el problema que se presentaría, en esta concepción de la comparabilidad, es

la cantidad de información disponible acerca de los sujetos en cuestión, a mayor información

menor margen de error.

Hay una diferencia fundamental en la función de bienestar social propuesta por Harsanyi.

Antes se veía que una FBS tenía como índices las funciones de utilidad individual, sin embargo

con Harsanyi, cada individuo tiene una función de bienestar social propia y una función de

utilidad individual. Para comprender esto, primero deberá introducirse la diferenciación que hace

el autor entre preferencias externas e internas.

Harsanyi distingue entre preferencias personales, que se refieren a las decisiones que toma

el agente en su vida cotidiana y sus preferencias morales, donde lo que se tiene en cuenta no son

CAPÍTULO II

139 RAWLS, J., Teoría de la justicia. México, Ed. Fondo de Cultura Económica, 1978.

140 HARSANYI, J., 1982, p. 50.

144

lo intereses personales sino los intereses de la comunidad en la que se vive, y, en las que se

impone una actitud imparcial e impersonal. Las primeras son la base de la función de utilidad

individual y las segundas las de su función de bienestar social. ¿Qué quiere decir con una actitud

impersonal e imparcial?

Para aplicarlo introduce los postulados de equiprobabilidad y similaridad. El postulado

de equiprobabilidad consiste en que en la elección entre varias alternativas el agente tiene las

mismas posibilidades de ocupar cualquier lugar en la sociedad, viene a ser aproximadamente lo

que Rawls139 más tarde llamó la ‘situación original’ bajo el ‘velo de ignorancia’. El postulado de

similaridad afirma que el individuo realizará su elección en términos de comparaciones

interpersonales de utilidad basados en la empatía con otros miembros de la sociedad, viene a ser

algo así como el coloquial ‘ponerse en los zapatos de otro’, el mismo autor nombra estas

palabras: «Nos imaginamos a nosotros mismos estando en los zapatos de otra persona y nos

preguntamos, «si yo estuviera ahora realmente en su posición, y tuviera sus gustos, su educación,

su entorno social, sus valores culturales, su naturaleza psicológica, entonces cuáles serían mis

preferencias entre varias alternativas, y cómo derivaría satisfacción o insatisfacción de una

alternativa dada».140

El problema es que o bien se necesita demasiada información con la que no se suele

contar, o se está postulando que los gustos y las preferencias individuales son básicamente

iguales. Además como el mismo Harsanyi reconoce nunca podrá ser verificada esta asunción por

observación, pues nunca se podrá tener acceso al interior de la gente, por mucho que se la

suponga tan humana y consciente como nosotros. Es verdad que de una forma o de otra la

mayoría de las veces habrá que tomar una decisión, aunque sólo sea para no morir de hambre

como el ‘asno de Buridan’, pero bajo esos supuestos no es posible estar seguros de que la

decisión sea la correcta.

CAPÍTULO II

141 HARSANYI,J., 1974, p.75.

142 SEN, A. K., 1976, p. 175.

145

Utilizando la teoría bayesiana de la elección bajo riesgo e incertidumbre Harsanyi afirma

que un individuo siempre elegirá aquel sistema social que maximice su utilidad esperada. De esta

forma la utilidad esperada es la cantidad que representa la media aritmética de todos los niveles

de utilidad de la sociedad, y esto no es otra cosa que su función de bienestar social.

Se obviará la enunciación de los postulados,los teoremas o la forma matemática que tiene

la función de bienestar social, ya que la cuestión fundamental aquí, es que Harsanyi hace

depender todo su edificio teórico de la posibilidad de realizar las comparaciones interpersonales

de utilidad: «si el individuo en cuestión tiene algún criterio objetivo para comparar las utilidades

de sus compañeros entre sí,y con las suyas propias,su función de bienestar social representará

la media no ponderada de esas utilidades,mientras que en ausencia de tal criterio objetivo

significará,en general su medida ponderada,con pesos arbitrarios que dependen solamente de sus

propios juicios de valor. En el primer caso, el bienestar social será en cierto sentido una cantidad

objetiva, mientras que en el último caso contendrá un importante elemento subjetivo».141

Uno de los pivotes sobre los que bascula el edificio teórico propuesto por Harsanyi es el

postulado de impersonalidad, por medio de él todos los individuos entran con el mismo peso en

la función de bienestar y, por tanto, las preferencias son en cierto sentido intercambiables. Pero

este postulado presenta una objeción importante. Un ejemplo de Sen lo aclara: «Considérese una

sociedad esclavista con 99 hombres libres y 1 esclavo. El último sirve a los primeros para

beneficio de ellos y disgusto suyo. Dada una probabilidad igual de estar en la posición de

cualquiera, es posible que alguien estuviese dispuesto a correr el riesgo de un 1 por 100 de ser una

esclavo, puesto que esa probabilidad del 99 por 100 de ser un hombre libre servido por un esclavo

podría aguijonear su fantasía ¿Sería entonces moralmente defendible una sociedad de esclavos?

Mucha gente no aceptaría este test».142

La contraobjeción a esto, es que el tema no puede plantearse en una sociedad así, sino

CAPÍTULO II

146

en sociedades de corte democrático y desarrolladas con gran movilidad social. Aunque parece

que lo que quiere mostrar la objeción de Sen es que el postulado de impersonalidad no tiene por

que asegurar la justicia de la elección entre un sistema social y otro.

Por otro lado, ya Arrow había previsto el uso de las funciones de utilidad de V. Neuman

y Morgenstern para posibles cardinalizaciones, pero ello nos enfrenta a la posibilidad de que las

elecciones individuales estén regidas por la aversión o no de los individuos hacia el riesgo.

Recuérdese que en el enfoque de la utilidad marginal analizado en el capítulo primero la

cardinalización nos llevaba a considerar la utilidad marginal creciente o decreciente como un

indicador de la actitud hacia el riesgo de los agentes, y que dicha actitud determina sus elecciones

cuando el contexto no es de certeza. Veámoslo con un nuevo ejemplo:

Sean dos individuos en la comunidad, el rico (R) y el pobre (P), y dos estados posibles

del mundo: el que incluye un impuesto progresivo (I) y el que carece de él (S).

La primera tabla muestra las rentas expresadas en dólares, la segunda los índices de

utilidad de V. Neumman y Morgenstern correspondientes a (R) y (P) para cada nivel del renta.

Se supone que para R la utilidad marginal de la renta es constante y para P decreciente.

Resultados en dólaresEstado del Mundo

Persona I S

R 60 100

P 40 10

Tabla XVII

Resultados en útilesEstado del Mundo

Persona I S

R 6 1

P 4 2

Tabla XVIII

«Si ahora cada individuo supone que tiene una probabilidad igual de ser R o P en

CAPÍTULO II

143 MUELLER, D. C., 1984, p. 257.

144 Ibídem, p. 262.

147

cualquier estado del mundo, entonces los postulados de V. Neumann, Morgenstern, Marshack

sobre racionalidad implican las siguientes evaluaciones de los dos estados posibles

W1 = 0,5 (0,6)+0,5(0,4)= 0,5

W2 = 0,5 (1)+0,5(0,2)= 0,6

La mayor utilidad esperada la suministra el estado del mundo en que no existe el

impuesto progresivo y por ello sería seleccionada por todos los individuos imparciales, según

Harsanyi. Pero como replican Pattanaik y Sen, bien puede suceder que P se queje. Claramente

su posición en el estado S es peor que la que tiene en I, su utilidad se dobla si se cambia a I,

mientras que R pierde menos de 1/2. Los índices de utilidad de la tabla revelan que P siente

aversión por el riesgo. Si puede elegir es posible que rehúse participar en un juego imparcial para

decidir si tiene los niveles de utilidad de R o P bajo I y S, del mismo modo que quien siente

aversión por el riesgo rechaza juegos actuarialmente correctos cuyos premios son unidades

monetarias».143 En este sentido la distribución del ingreso social depende de la actitud de los

sujetos hacia el riesgo. La cuestión es que Harsanyi parece continuar en la tradición utilitarista

que prima la maximización sobre la distribución. Y el tema no sólo es tratar de maximizar la

riqueza (la utilidad global) sino también ver a qué manos va a parar.

¿Cuál es el valor de los trabajos de Harsanyi en el tema de la elección social? Para Mueller

su valor radica en la perspectiva que suministran sobre cómo se deben adoptar las decisiones

colectivas,144 en base a ello se ha titulado este apartado el enfoque normativo. Pero hay otro

aspecto a resaltar y es su insistencia en la experimentación de cara a lograr las comparaciones

interpersonales de utilidad. Los principios en los que se apoya no resultan del todo convincentes,

pero es un intento de hallar una vía de solución a un tema espinoso en el que las críticas han

conminado a la mayoría de los teóricos al silencio.

CAPÍTULO II

145 Véase especialmente SEN, A. K., 1976.

146 Ibídem, p. 18.

148

5.2. LA COMPARABILIDAD PARCIAL: A. K. SEN.

La propuesta del profesor Sen se basa en la necesidad de tomar decisiones con o sin

Teorema de Imposibilidad. Ello no quiere decir que lo obvie, al contrario, ha sido objeto de

estudio en muchas de sus obras,145 pero parece poner el acento en que lo más importante es

encontrar métodos mediante los cuales decidir entre un cierto número de alternativas la mejor,

socialmente hablando, y lo menos que esa elección haya de cumplir los mismos requisitos que

la toma de decisiones individual.

Las formulaciones de A. K. Sen se orientan en el sentido de relajar la transitividad, es

decir, según Sen, para que haya una elección consistente no es necesario que la sociedad tenga

una ordenación. «Por ejemplo, si x se prefiere a y, y es preferida a z y z es indiferente a x,

entonces hay una alternativa óptima en cada situación de elección, pero queda infringida la

transitividad. Si la elección es sobre el par (x,y) puede elegirse x, si es sobre (y,z) y es preferida;

y si se trata de una elección en el conjunto de las tres alternativas (x, y, z), entonces se selecciona

x ya que es la única alternativa que es al menos tan buena como las otras dos».146

Para Sen, al no exigir ordenaciones sociales, la condición necesaria y suficiente para que

exista una función de elección es la aciclicidad, donde si x1 es preferible a x2, x2 preferible a x3 y

así sucesivamente hasta xn, por aciclicidad x1 es considerada al menos tan buena como xn.

Sustituyendo la transitividad por aciclicidad es posible salvar el teorema de imposibilidad de

Arrow, ya que la aciclicidad no exige la transitividad de la indiferencia, es decir, si x es indiferente

a y e y es indiferente a z, entonces, x es indiferente a z.

Pero la aciclicidad presenta dos problemas básicos: en primer lugar, y teniendo en cuenta

que tanto la transitividad como la aciclicidad es una condición sobre ternas, una relación de

preferencia puede cumplir la aciclicidad para todas las ternas e infringirlas para el conjunto

CAPÍTULO II

147 La importancia de la transitividad venía dada porque conociendo las elecciones de los individuos para entornosde tres alternativas podíamos conocer el conjunto completo de elección.

148 SEN, A. K. 1976, pp. 33 y ss.

149 MUELLER, D. C., 1984, p. 202.

150 ARROW, K. J. , 1974a, p. 244.

149

completo,147 mientras que si la transitividad se cumple para todas las ternas se cumple también

para todo el conjunto, independientemente de la longitud de la secuencia que se tome.

El segundo problema que se plantea es que, si bien no exige ordenaciones sociales, sí

impone unas condiciones mínimas en términos de las propiedades de la función de elección: la

primera condición, denominada propiedad alfa, exige que si algún elemento de un subconjunto

s1, que pertenece a s2, es mejor en s2, debe serlo también en s1. Mientras que la propiedad beta

exige que si x e y son ambas mejores en s1, un subconjunto de s2, una de ellas no puede ser

mejor en s2 sin que la otra lo sea también en s2.148 La aciclicidad infringe la propiedad beta.

Los ejemplos suministrados por Mueller149 pueden ayudar a clarificar el significado de

estas dos propiedades: para la propiedad alfa Mueller nos dice que si x es el mejor jugador del

mundo también es el mejor jugador de Londres, es decir, que la selección del ganador no

depende de como se produzcan los encuentros eliminatorios. Más arriba se veía como el método

de votación de Condorcet dependía de como se establecieran estos encuentros, dando un

resultado u otro según cuál fuera la última alternativa. La transitividad asegura la independencia

de la elección final respecto al método de decisión.150

Pero se había dicho que la aciclicidad infringía la propiedad beta. Los ejemplos que a

nivel intuitivo se nos ofrecen no son ni mucho menos autoevidentes, Mueller afirma que si x e

y compiten por el campeonato de ajedrez de Inglaterra, ambos deben estar entre los que compiten

por el campeonato mundial, pues según la formulación de Sen la propiedad beta exige que si dos

alternativas son ambas mejores en un subconjunto, entonces una de ellas no debería ser mejor

en todo el conjunto sin que la otra lo sea también. Si se considera que la propiedad beta es

CAPÍTULO II

151 SEN, A. K., 1976, p. 69.

152 Ibídem, p. 66.

153 Ibídem, p. 60.

150

importante se debe renunciar a la aciclicidad.

Cuando más arriba se definía la aciclicidad se establecía la posibilidad de realizar la

elección aún cuando x y z fueran indiferentes, pero tal y como afirma Sen: «considérese la elección

entre x y z. Cada una de ellas es ‘mejor’, puesto que es tan buena como la otra. ¿Sería correcto

describir un proceso de elección como racional si puede elegir x o z en una elección entre las dos,

pero en cambio tiene que elegir necesariamente x si la elección es entre x, y, z ?».151 Ello supondría

que en el proceso de elección no sólo influye el método de votación que es usado, sino las

alternativas en juego, es decir, la elección es dependiente del resto de las alternativas.

A lo largo del texto han sido denominadas funciones de elección tanto a las propuestas por

Arrow como a las enunciadas por Sen a fin de hacer más comprensible la exposición, pero hay

una diferencia crucial entre ambas. Las funciones de elección arrowianas, denominadas funciones

de bienestar social, constituyen un método que pone en relación funcional las ordenaciones

individuales con las ordenaciones sociales respecto a las situaciones sociales alternativas, mientras

que las propuestas por Sen, que él denomina funciones de decisión, son «reglas de elección

colectiva que generan relaciones de preferencia que son suficientes para la existencia de funciones

de elección».152 Esto quiere decir que no se exige que la relación de preferencia social constituya

una ordenación.

La diferencia es crucial ya que el teorema de imposibilidad de Arrow se cumple para las

funciones de bienestar, pero no para las funciones de decisión, a no ser, que exijamos, para éstas

últimas, que se cumpla la propiedad beta. En palabras de Sen «una al menos de las cuatro

condiciones de Arrow ha de ser suprimida en aras de la consistencia.... Algo hay que sacrificar,

y la propiedad beta, atrayente por sí misma, puede considerarse menos indispensable que las otras

posibles candidatas para eliminación».153 El problema sigue planteado en términos de elección,

CAPÍTULO II

154 SEN, A. K., 1979, pp. 24 y ss.

155 Ibídem, pp. 25-26

151

aunque en este caso se deba elegir la condición a mantener.

Posteriormente154 Sen propone cinco condiciones que exigir a las reglas de elección social:

Condición Q: la preferencia social ha de ser reflexiva, completa y cuasi-transitiva, es decir,

exigimos transitividad a la preferencia estricta pero no a la indiferencia.

Condición D: Dominio no restringido.

Condición I: Independencia de alternativas irrelevantes.

Condición P: Principio de Pareto.

Condición A: Anonimidad.

Este conjunto de condiciones combinadas, aunque parece salvar el teorema de

imposibilidad arrowiano, no es capaz de jerarquizar todos los estado óptimos de Pareto, teniendo

estos que ser caracterizados como socialmente indiferentes. Es decir, no se tendría una ordenación

completa de los estados sociales alternativos lo cual era uno de los principales objetivos de la

teoría.

La responsabilidad de esta nueva imposibilidad la achaca Sen a la ausencia de

comparaciones interpersonales de bienestar: «Me inclino a pensar que el verdadero problema se

encuentra en la misma concepción de una función de bienestar social que hace depender la

preferencia social tan sólo de las ordenaciones individuales, no empleando ni valoraciones de la

intensidad de las preferencias ni comparaciones interpersonales de bienestar».155

Sen señala que se debería de tener en cuenta, en la elección social no sólo las preferencias

individuales, sino también la intensidad de preferencias, de modo que si el individuo A desea

fervientemente que la elección social recaiga sobre x, mientras que el individuo B prefiere

marginalmente que recaiga sobre y tal vez, en este caso, la elección social debería recaer en x y no

en y.

El problema es que no sólo se está teniendo en cuenta intensidad de preferencias, también

CAPÍTULO II

156 SEN, A. K., 1976, p. 126.

152

comparabilidad interpersonal que, era algo que para Arrow no tenía el menor significado al ser

magnitudes psíquicas individuales. El ejemplo antes citado sería una violación clara de la

condición de independencia de alternativas irrelevantes ya que la elección entre x e y estaría siendo

determinada no sólo por las preferencias de los individuos respecto de ese par, sino también por

un factor ajeno a ellas que sería la intensidad de preferencias.

Pero aunque se decida suprimir la condición de Independencia de Alternativas Irrelevantes,

se continúa con el viejo problema de la arbitrariedad de las unidades de medida de la utilidad. Sen

propone enfrentarse al problema mediante, «una serie de esquemas alternativos de normalización

interpersonal y seleccionar aquellas clasificaciones por pares que sean invariantes con respecto a

la elección de cualquiera de estos esquemas».156 ¿Qué quiere decir esto? Lo que Sen está

defendiendo no es comparabilidad unitaria, es decir, comparaciones uno a uno, sino

comparaciones muchos a muchos. El ejemplo de Sen acerca de la quema de Roma por Nerón,

sugiere que es posible que no se puedan comparar la utilidad, o los cambios en el bienestar, de

un individuo a otro, pero hay situaciones objetivas donde se sabe, de hecho, que el bienestar ha

descendido, probablemente más para unos que para otros, pero ha descendido como de hecho se

supone que sucedió en la quema de Roma por Nerón. Es posible que no se pueda establecer

cuanto descendió la utilidad de cada romano al ver sus casas y propiedades calcinadas, pero si se

puede establecer que el bienestar de los romanos descendió por mucho que haya aumentado el

de Nerón.

¿Cómo establecer esas comparaciones? En primer lugar se obtienen las funciones de

bienestar de cada individuo sobre un conjunto de alternativas, de cara a decantarse por un óptimo

social y se elige un sistema de transformación lineal que las haga corresponder, la elección es

arbitraria pues, como se ha visto, esto no está exento de problemas y la selección de uno u otro

será un juicio de valor. En base a esto se comienza a comparar las diferencias de bienestar de los

distintos individuos en cada uno de los estados sociales alternativos haciendo uso de cierta

CAPÍTULO II

157 SEN, A.K., 1976, p. 128.

153

variabilidad en las correspondencias .En las comparaciones serían elegidas aquellas alternativas

que continúan siendo las primeras en la escala de preferencia social con o sin variabilidad Las

tablas que siguen a continuación pueden aclarar un poco más este tema,(las propuestas por Sen

han sido ampliadas).157

Transformación lineal positiva.

Alternativas

Individuos x y z

A 1 0.90 0

B 1 0.88 0

C 0 0.95 1

Tabla XIX

Diferencias de Bienestar

Diferencias de bienestar

Individuos (x, y) (y, z) (z,x)

A 0.10 0.90 -1.00

B 0.12 0.88 -1.00

C -0.95 -0.05 1.00

Resultados 0.73 afavor de y

1.73 afavor de y

1 a favor de z

Tabla XXDiferencias de bienestar después de aplicar variabilidad.

Diferencias de bienestar

Individuos (x, y) (y, z) (z,x)

A 1.80 0.45 0.5

B 1.76 0.44 0.5

C 0.475 -0.1 0

Resultados 0.035 afavor de y

0.79 afavor de y

1 a favor de z

Tabla XXI

CAPÍTULO II

154

En la tabla XXI se han doblado las medidas de A y B para x e y y reducido a la mitad las

de C. En cuanto a y, z se han reducido a la mitad las de A y B y duplicado las de C. Podría

preguntarse qué legitimidad tiene esto. Su razón de ser obedece a la necesidad de tener en cuenta

la intensidad de las preferencias de los distintos individuos, además se ha fijado un factor 2 de

variabilidad, para que ésta no sea totalmente arbitraria. La legitimidad del método puede darla sus

resultados. Se encuentra que en la comparación entre x e y y entre y y z la alternativa ganadora

siempre es y con y sin variabilidad, no ocurre lo mismo en la comparación entre x y z; antes de la

variabilidad ganaba x por uno y después gana z por el mismo margen, es decir, este par es

incomparable y la estructura recuerda mucho a la paradoja del voto ya analizada. La importancia

del método es que se dispone de una alternativa óptima en la elección entre x, y, z que sería y ya

que entre x e y gana y y también gana entre y y z. Si se hubiera empleado el método de votación

de mayorías la alternativa ganadora hubiera sido x, pero si se vuelve a la tabla XIX la pregunta es

si y no es una mejor alternativa para todos, ya que la diferencia para los individuos A y B entre x

e y era de 0.10 y 0.12 respectivamente, mientras que para C era de -0.95. La cuestión clave es, y

lo es dentro de toda la economía del bienestar, si la pérdida de bienestar de A y B al elegir y es

compensada por la ganancia de C. La posibilidad de compensación es una herramienta clave

dentro de la economía positiva, como se recordará todo el enfoque de las curvas de indiferencia

está basado en la posibilidad de compensar a los sujetos con aumentos en las cantidades de un

bien a cambio de pérdidas en las cantidades de otro bien, la cuestión es si dicha herramienta sigue

siendo válida cuando lo que se está tratando es el bienestar social.

Finalmente, Sen propone que tal vez deberían ser tomadas en cuenta, en el estudio de la

elección colectiva, no sólo la derivación de preferencias sociales a partir de preferencias

individuales, sino también la génesis misma de estas preferencias, ya que si bien las preferencias

individuales han de conformar las ordenaciones sociales no es menos cierto que en la

configuración de preferencias de los individuos influyen multitud de factores sociales, como

pertenencia a un determinado grupo social, su posición económica, su interés respecto a la

CAPÍTULO II

155

comunidad, etc. Claro está que esto no puede ser realizado con los meros instrumentos de la teoría

económica.

5.3. COMPROMISOS Y COMPORTAMIENTO ESTRATÉGICO: LA ESCUELA DE VIRGINIA.

Otra de las alternativas para escapar al teorema de imposibilidad de Arrow lo constituye

la renuncia a la transitividad, es decir eliminar la exigencia de ‘racionalidad social’ en los mismos

términos de la racionalidad individual. Como se recordará por la demostración del teorema, no

exigir transitividad implica que dos o más individuos son decisivos en la decisión y por tanto

dicha decisión es dictatorial. Hemos de tener en cuenta la propuesta señalada más arriba acerca

del intercambio de votos. Si se produce una decisión mayoritaria en base a intercambio de votos

se violaría la condición de no dictadura, y esta es básicamente la propuesta de la Escuela de

Virginia, aduciendo la imposibilidad de exigir transitividad a los resultados colectivos.

El argumento de Buchanan es que la transitividad es sólo una propiedad de la racionalidad

humana y que, desde el individualismo metodológico, es imposible exigir algo así como una

racionalidad social, pues sería entrar dentro de una concepción organicista del estado. Buchanan

no es el único en mantener este punto de vista, Riker y Ordeshook lo expresan magistralmente:

«Las elecciones individuales son consecuencia de la ordenación de preferencias del individuo. Los

resultados sociales son consecuencia de la interacción de los decisores individuales en el contexto

de una determinada regla de agregación (de preferencias). La decisión individual es la elección de

una alternativa seleccionada para maximizar la utilidad del individuo en cuestión. Puesto que la

utilidad constituye una medida de las preferencias subyacentes de este individuo, es sensato

suponer que existirá consistencia en una serie o conjunto de decisiones individuales. Sin embargo,

no hay razón alguna para esperar consistencia en los resultados sociales, puesto que no se

seleccionan para maximizar nada, sino, simplemente, para reflejar las opiniones de las mayorías

o grupos seleccionados mediante otras reglas de agregación. Puesto que en cualquier conjunto de

elecciones sociales, de una decisión a otra puede variar el conjunto de decisiones que determinan

CAPÍTULO II

158 RIKER, W.,y ORDESHOOK, P ., An Introduction to positive Political Theory, 1973. Citado en COLOMER, J., 1987,p. 94.

156

el resultado (y que siempre es un subconjunto de la sociedad), no hay razón alguna para suponer

que la consistencia individual en las decisiones se transmitirá al grupo. (...) Ciertamente no

debemos esperar que la sociedad sea coherente exactamente del mismo modo que lo es el

individuo. De la misma manera, tampoco nos perturba profundamente la paradoja (de Arrow),

puesto que básicamente nos sirve para recordar que la sociedad no es lo mismo que la gente que

la compone».158

El argumento fundamental es que la sociedad no es lo mismo que los individuos que la

componen, y hasta ahí no hay problema, la cuestión es que disponemos de herramientas

matemáticas que nos permiten dividir esa sociedad en subconjuntos de individuos, donde en cada

subconjunto los individuos tienen la misma preferencia. Si, por ejemplo, tenemos tres

subconjuntos claramente diferenciados y por votación de mayoría se establece que hay una

alternativa ganadora, podemos afirmar que esa alternativa es la socialmente preferida, siempre y

cuando explicitemos que serán socialmente preferidas aquellas alternativas que obtengan una

mayoría de votos. Rizando el rizo esto puede ser considerado una concepción organicista de la

sociedad, pero a efectos prácticos no parece muy relevante.

Lo que sí nos parece relevante es la importancia tanto de la condición como de su

supresión.

Tenemos, por un lado, las consecuencias que se desprenden de su violación: posibilidad

de mayorías cíclicas, imposibilidad de tomar una decisión, el hecho de que las preferencias

individuales no se vean reflejadas en la toma de decisiones colectiva, la posibilidad de la

manipulación política de la agenda, etc. Pero aún hay otro punto sumamente importante,

expresado por Arrow: «La posibilidad de considerar la inacción como una alternativa siempre

existente, constituye una parte de la cuestión más amplia de si las elecciones sociales deberían

estar o no históricamente condicionadas. Es aquí donde se aclara la importancia de la transitividad.

CAPÍTULO II

159 ARROW, K. J., 1980, p. 149.

160 BUCHANAN, J., MCCORMICK, R. y TOLLISON, R., El análisis económico de lo político. Madrid, Ed. Institutode Estudios Económicos, 1984, p. 180.

157

La transitividad implica que la elección final, realizada a partir de cualquier entorno dado, es

independiente del itinerario a través del cual se ha derivado, es decir, es independiente del orden

en que se han presentado las alternativas. A partir de cualquier entorno existirá una alternativa

escogida dada, y, en ausencia de una total detención, no existe lugar alguno para escoger por

omisión las alternativas históricamente dadas».159

Este argumento es fundamental pues la defensa que hace Buchanan de la regla de

unanimidad, combinada con el uso del criterio de Pareto, conllevan un fuerte conservadurismo.

Esto es así porque si la unanimidad no se produce para cualquier cambio propuesto desemboca

en la defensa del statu quo. Veamos un poco más a fondo los planteamientos de la Escuela de

Virginia.

Esta escuela ha reaccionado fuertemente ante el auge de la economía del bienestar,

señalando esencialmente que ésta no es una teoría muy creíble de la acción del gobierno, y

además, que está viciada por el supuesto injustificado de que al Gobierno se le puede pedir que

corrija los mercados imperfectos de una manera perfecta y sin costes, lo que justificará algunas

de las posturas que se verán a lo largo de este apartado. «Que el Estado no es un instrumento

perfecto para corregir los fallos del mercado apenas requiere demostración. El que sea ‘fallo’ del

mercado o ‘fallo’ del Gobierno el hecho que caracteriza a la historia económica, es una cuestión

muy debatida. De hecho, aunque las imperfecciones en la economía pueden ser lamentables,

lamentarse es lo mejor que se puede hacer si la consecuencia de la acción del Gobierno es

disminuir en lugar de aumentar el bienestar económico ».160

En lo que respecta a las reglas de elección social, que es lo que interesa en este apartado,

Buchanan hace una defensa de la regla de unanimidad para la toma de decisiones, especialmente

en lo que a imposiciones fiscales se refiere. Pero tanto él como Tullock han admitido que los

CAPÍTULO II

158

costes de la toma de decisión con una regla de unanimidad son tan altos, en lo que se refiere a

tiempo invertido en el proceso, que está justificado el abandono de esta regla y abogar por una

regla de mayoría. Esta regla no sería, en su caso, la mayoría simple pues habría que demostrar que

la suma de las curvas correspondientes a los costes de la toma de decisión y la curva de los costes

que para los individuos afectados supondría tomar una decisión en contra de sus intereses, alcanza

en N/2 + 1 su punto más bajo. Qué quiere decir esto.

La acción colectiva es considerada o bien como un medio de reducir los costes externos

que pueden provocar sobre el individuo otros actores sociales, o bien como una forma de asegurar

beneficios externos que no se pueden asegurar de forma privada. Un ejemplo de lo primero es el

policía que mantiene al ladrón lejos de tu puerta y de lo segundo el hecho de que una protección

individual contra el fuego puede que no sea provechosa. La diferencia entre costes y beneficios

es una cuestión de umbral, puede ser beneficioso evitar costes, por lo que su análisis se reduce

únicamente a una cuestión de costes externos siendo los beneficios considerados como una

reducción de costes.

Hay dos tipos de costes que se le imponen al individuo en lo que a acción colectiva se

refiere: los costes esperados que pueden imponerle el resto de los agentes sociales si se llega a

tomar una decisión en contra de sus intereses y los costes asociados a la toma de decisiones. La

suma de ambos se denomina costes de interdependencia social. Los costes son externalidades

negativas o deseconomías externas; definiéndose una externalidad como una reducción en la

utilidad del individuo, se supone, por tanto, que un individuo maximizador de utilidad intentará

minimizar esos coste. La cuestión es cómo. Los costes externos tienden a ser minimizados a

medida que menos individuos tienen poder para imponer costes a otros individuos, y los costes

de la toma de decisiones se minimizan como una función decreciente de los individuos tomados

en cuenta en la toma de decisiones.

Hay tres hipótesis básicas:

1) A medida que aumenta el número de individuos necesario para llegar a un acuerdo y

CAPÍTULO II

161 K. O. May había formulado una condición bastante aceptable denominada neutralidad, que exigía que podamosusar el mismo criterio independientemente de las alternativas que estemos evaluando. Es obvio que estacondición sería violada en la teorización de Buchanan

159

realizar una acción disminuyen los costes externos.

2) A medida que aumenta el número de individuos aumentan los costes en la toma de

decisiones.

3) Los costes externos netos se reducen a cero bajo la regla de unanimidad.

La hipótesis número tres se deduce del hecho de que el grupo nunca podrá acordar una

acción con la que el individuo no esté de acuerdo, pues al exigirse unanimidad siempre podrá vetar

cualquier acción que vaya en contra de sus intereses. Por su parte los costes en la toma de

decisiones se reducen a cero cuando haya el mínimo de individuos necesario para acordar la

acción: en el caso de que el mínimo sea uno, hay un caso claro de dictadura.

Existe, pues, una situación paradójica, ya que si el individuo intenta minimizar los costes

externos exigirá una regla de unanimidad o cuasi unanimidad, pero precisamente esta regla dispara

los costes en la toma de decisiones. De este análisis de la acción colectiva, en base a los costes

impuestos a los individuos, y teniendo en cuenta que el logro de la unanimidad es casi imposible,

deducen los autores que no todas las actividades colectivas deben organizarse aplicando la misma

regla,161 ya que la función esperada de costes de los individuos variará de una decisión a otra. La

hipótesis fundamental es que el individuo elegirá la regla que le imponga un coste mínimo. Así,

en lo que se refiere a los costes externos, que pueden infligirle el resto de los sujetos el individuo

maximizador de la teoría económica, que no es capaz de predecir su posición futura, exigirá una

regla unánime o cuasi unánime de manera que minimiza la posibilidad de soportar esos costes

(una hipótesis subsidiaria es que los individuos en el nivel constitucional son incapaces de predecir

su posición futura de donde intentan derivar un resultado de imparcialidad similar al deducido por

Rawls en la ‘posición original’ y como se recordará, también usado por Harsanyi). Ahora bien,

la unanimidad puede llegar a tener un precio demasiado alto que el individuo pagará según se vea

afectado por la decisión a tomar; si se trata de un grupo pequeño el coste puede no ser excesivo,

CAPÍTULO II

162 La desviación de la regla de unanimidad sólo estará justificada, según este enfoque, introduciendo la funciónde costes de la toma de decisiones.

160

pero si se trata de un grupo grande probablemente el individuo considerará los beneficios

asociados a una regla menos inclusiva.

¿Cuándo, cómo y por qué elegirá una regla u otra? Dentro de la primera categoría, la

categoría constitucional, estos autores sitúan las decisiones referidas a cambios de estructura o

modificaciones que afectan a los derechos humanos y a la propiedad, de cara a verse súbitamente

desprotegido de sus bienes o derechos, por lo que exigirá la regla de unanimidad. En la segunda

categoría, o categoría postconstitucional, se incluiría la consecución de bienes públicos

normalmente proporcionados por el estado.

La razón de exigir unanimidad en el nivel constitucional radica, por un lado, en lo

siguiente: ¿por qué va a obedecer el individuo una decisión del grupo en el nivel postconstitucional

si emana de una decisión constitucional anterior con la que no ha estado de acuerdo y ha votado

en contra en su momento? Por otro lado, en el supuesto fuerte de que el individuo no sabe en qué

posición va a estar en el futuro, la única manera de asegurarse que estará en la coalición victoriosa,

y no tendrá que soportar costes, es exigiendo unanimidad. En el nivel constitucional, aparte de los

acuerdos sobre derechos y propiedades, el individuo pactará el tipo de regla de decisión que

funcionará en el nivel postconstitucional, pues ésta es una de las cuestiones que caracteriza a una

constitución en sentido normal.

Es obvio que habrá multitud de situaciones donde el individuo tendrá que desviarse de la

regla de unanimidad.162 Pero entonces, qué regla imponer, suponiendo además que el individuo

maximizador votará la regla de coste mínimo. La función de la magnitud de la mayoría requerida,

calcula el número de individuos que ha de participar en la decisión, en función de los costes de

interdependencia social.

La introducción de esta función se legitima en aquellas situaciones donde es lícito

desviarse de la regla de unanimidad, ya que los costes de la toma de decisión exceden a los costes

CAPÍTULO II

163 MUELLER, D. C., 1984, p. 41.

161

externos, se representa como sigue: «En el eje vertical están los costes de una decisión colectiva

particular, y en el eje horizontal el número de personas, desde cero hasta N (la dimensión del

comité) que son necesarias para aprobar una cuestión. La curva C es la función de costes externos

que representa la pérdida esperada de utilidad originada en la victoria de una decisión a la que se

opone un individuo de acuerdo con la regla de decisión del comité. La curva D representa los

costes temporales de decisión implicados en el logro de la mayoría necesaria para que se apruebe

una cuestión; se trata de una función de la magnitud de la mayoría requerida. La mayoría óptima

es aquel porcentaje del comité para el que se minimiza la suma de ambas clases de costes. Ello

sucede en K donde la suma vertical de las dos curvas alcanza un mínimo».163

Figura XV

En base a esta representación Buchanan argumenta que para la defensa del método de

votación de mayorías se debería exigir que se demostrase que algunas de las dos funciones de

coste se quiebra en el punto medio, es decir, que N/2 + 1 es igual a K/N.

El que el análisis se centre en el nivel constitucional, donde el individuo tiene una completa

incertidumbre acerca de su posición futura, nos devuelve al marco del bienestar y de las

CAPÍTULO II

164 BUCHANAN, J. y TULLOCK, G., 1962, p. 122. La objeción continúa siendo la misma que se presentaba aHarsanyi respecto al postulado de impersonalidad.

165 BUCHANAN, J. y TULLOCK, G., 1962, p. 96.

162

comparaciones interpersonales de utilidad. La conclusión de Buchanan es que no es necesario

discutir la comparación de utilidades de unos individuos con otros, sino la comparación de

posibles ganancias y pérdidas en distintas situaciones y bajo distintas reglas de toma de

decisiones. Las consideraciones de bienestar y de equidad, (aunque estos autores no parecen

especialmente interesados en ellas) se introducen cuando el individuo, al no saber en qué posición

estará, calcula las pérdidas y ganancias de estar en una u otra posición social. De lo cual se deduce

que las decisiones alcanzadas en este nivel serán justas ya que no estarán dominadas por intereses

personales o partidistas. Se supone que nunca intentará beneficiar a un grupo concreto, por

ejemplo, los ricos, pues no sabe si estará en el bando de los desposeídos. «De alguna manera,

entra aquí dentro del análisis una comparación interpersonal de las utilidades, pero hay que señalar

que no se requiere que el individuo compare las utilidades de A y B. Sólo se requiere que compare

sus propias ganancias anticipadas de la utilidad en las situaciones en las que él está en el grupo

decisivo con sus pérdidas anticipadas en las situaciones en las que él está en la coalición

perdedora».164

El concepto de costes temporales en la toma de decisiones significa que las cuestiones son

replanteadas una y otra vez hasta llegar al consenso. Si se sitúan las reglas de decisión en un

continuo, atendiendo sólo a la función de costes en la toma de decisiones, en un extremo se

encuentra la regla de unanimidad y en el extremo opuesto la de dictadura. Ello abre todo el ámbito

a las negociaciones y al regateo que a su vez supone posibilidad de comportamiento estratégico,

falseamiento de las verdaderas preferencias, etc. «Puesto que cada votante, entonces, tiene un

monopolio de un recurso esencial (esto es, su consenso) cada persona puede pretender obtener

el beneficio completo del acuerdo para sí mismo».165 Dado esto, el resultado puede ser mantener

una situación inicial, donde las partes están peor debido a posturas intransigentes y recalcitrantes,

CAPÍTULO II

166 Tomado de SEN, A. K., 1976, p. 150.

163

o bien obtener un acuerdo. El punto eficiente del acuerdo, usando el modelo de Edgeworth de una

negociación para dos personas, se sitúa en la línea de contratación (ver figura XIII), es decir,

aquella línea trazada a través de las curvas de indiferencia de los individuos donde ambos ganan

si llegan a un acuerdo. Y esto vuelve a ser una elección única y exclusivamente sobre óptimos de

Pareto.

La cuestión es si en este sencillo modelo se han tenido en cuenta todas las variables

relevantes. Un ejemplo propuesto por Braithwaite puede ser de ayuda: «En el ejemplo de

Braithwaite hay un tal Lucas al que le gusta tocar el piano en su habitación y un tal Mateo a quien

le gusta improvisar Jazz con la trompeta en la habitación adyacente, con insonorización imperfecta

entre las habitaciones. Se molestan mutuamente si tocan juntos, pero, como es natural, el

trompetista molesta más al pianista que el pianista a aquel. La solución final que recomienda

Braihtwaite divide el tiempo entre los dos, dando bastante más al trompetista que al pianista.

Como dice Braithwaite "la ventaja de Mateo radica exclusivamente en el hecho de que él, el

trompetista prefiere que ambos toquen al mismo tiempo que no tocar ninguno, mientras que

Lucas, el pianista, prefiere el silencio a la cacofonía". Mateo tiene la ventaja de la amenaza en

ausencia de un contrato y es muy posible que efectivamente se llegue a la solución de Braithwaite

si Lucas y Mateo entablan negociaciones».166

Un acuerdo eficiente en el sentido de Buchanan es uno situado en cualquier punto de la

línea de contratación. Pero parece a primera vista plausible exigir algo más. El problema estriba

en que la posibilidad de llegar a un acuerdo no depende sólo de los costes en la toma de

decisiones, también dependerá del poder de las partes en la negociación para imponer costes

externos a los otros del tipo del que Mateo impondría a Lucas. En el ejemplo de Braithwaite es

muy posible que Lucas se niegue a su solución, pese a ser paretianamente eficiente, debido a la

injusticia de la misma. Según Buchanan, si las partes son racionales, se llegará a un acuerdo en

dicha línea. ¿Significa esto que Lucas no actuaría racionalmente?

CAPÍTULO II

164

Qué relevancia tendría este modelo de negociaciones dentro de las consideraciones teóricas

que hemos estado llevando a cabo. El punto fundamental es que el modelo de Buchanan implica

intercambio de votos y negociación estratégica y ello, a su vez, implica la consideración de las

distintas intensidades de preferencia. Es obvio que si no se postulan distintas intensidades de

preferencia de los individuos sobre los diversos temas, la posibilidad de un intercambio de votos

queda eliminada.

La consideración del intercambio de votos abre un camino para contemplar las

intensidades de preferencia y la comparabilidad interpersonal. Mientras que con la regla de

votación de mayorías en ausencia de negociación, que es como formalmente se define, cada

persona tiene un voto, si vota a su primera preferencia se está suponiendo que la primera

preferencia tiene para todos la misma intensidad.

Efectivamente, se puede acordar con Buchanan que la hipótesis de igual intensidad de

preferencias es excesivamente restrictiva e irreal; su razón de ser es que bajo ese supuesto la regla

de mayoría simple asegura que los beneficios conjuntos excederán las pérdidas conjuntas. Esto

puede parecer que legitima un modelo que incluya un intercambio de votos o incluso un mercado

de votos establecido en las Cámaras. Pero como ya se señaló (§3.2.4.), el intercambio de votos

no elimina posibilidad de aparición de las mayorías cíclicas y por tanto, el Teorema de

Imposibilidad de Arrow.

6. ALGUNAS CUESTIONES ABIERTAS.

La Teoría de la Elección Social se sitúa en un cruce de caminos donde se encuentran

disciplinas como la ética, la política y la economía. Dada la variedad de aportaciones que recibe

desde estas áreas es sumamente complejo dar cuenta de esta teorización en toda su amplitud. Por

ello la exposición que hemos realizado ha sido principalmente en torno a su temática y

fundamentalmente, en torno a los problemas que arrostra. Muchos de estos problemas

permanecen como cuestiones abiertas, bien porque los teóricos no han sido capaces de darles

CAPÍTULO II

165

respuesta o bien porque en la palestra hay situadas diversas propuestas alternativas.

Las cuestiones fundamentales que permanecen abiertas pueden ser articuladas en torno

a tres puntos: a) la posibilidad de establecer una medida para la utilidad que nos permita abordar,

si es posible, las comparaciones interpersonales de satisfacción o bienestar; b) la cuestión de si la

utilidad puede ser un buen índice con el que valorar la distribución del ingreso social y c) la

problemática en torno al concepto de utilidad esperada.

Respecto a la primera cuestión, como se ha visto en las páginas precedentes, el Teorema

de Imposibilidad de Arrow se encuentra en el núcleo y articula toda la Teoría de la Elección Social,

pero es imposible comprender el trabajo de este autor, en toda su amplitud, sin conocer el debate

que durante los años 30 y 40 se produce en torno a la posibilidad de la medición de la utilidad y

la realización de comparaciones interpersonales de la misma. Un debate que parecía estar zanjado

tras la publicación de la obra de Arrow y que se reabre nuevamente, en la contemporaneidad, con

autores como Sen y Harsanyi. Interesa destacar aquí, por tanto, que los problemas que atañen al

utilitarismo, como una teoría de redistribución de riqueza, no constituyen únicamente los

antecedentes históricos de la teoría, sino que se encuentran en su mismo núcleo. De ahí que las

páginas anteriores hayan estado articuladas en torno al Teorema General de Imposibilidad, pero

también, a la posibilidad de medir y comparar la satisfacción de los distintos individuos pues es

en base a ésta que se elige y se decide.

Tras el Teorema de Imposibilidad, podemos preguntarnos qué salidas se presentan a la

Teoría de la Elección; o más concretamente ¿es posible a través de ordenaciones individuales de

los estados sociales alternativos obtener una ordenación social que cumpla unos requisitos

mínimos de consistencia?, ¿cómo obtener esa ordenación? Las líneas de investigación de Sen y

Harsanyi parecen ser las más prometedoras para resolver esta cuestión haciéndola incidir,

precisamente, en la medibilidad de la utilidad.

Harsanyi establece la posibilidad de construir funciones de bienestar social, susceptibles

CAPÍTULO II

166

de maximización, a partir de dos principios de lógica inductiva, que pueden parecer dudosos, ya

que es posible acordar con él que, para establecer la influencia de una variable sobre otra se ha de

probar, de alguna manera, tal influencia. Pero esto es una forma simplista de escapar a un

problema metodológico grave, pues de la misma forma, debe probarse que tal influencia no se

produce, lo cual parece más difícil.

Si la postura de Harsanyi es aceptada, quedaría por solucionar la crítica que hace Sen sobre

su priorización de la maximización sobre la distribución de la utilidad. Pero, es necesario

reconocer, en justicia, que eso no es un fallo metodológico sino una falta de acuerdo sobre un

principio ético que es el que debe regir la distribución. Es decir, se parte del principio de la

maximización de la utilidad global, como cualquier principio normativo en ciencia, y a partir de

ahí, se postulan una serie de supuestos e hipótesis. El trabajo, tal y como se ha venido planteando,

trata de mostrar lo inadecuado de que exista contradicción entre los supuestos, las hipótesis y los

resultados obtenidos. Sobre el criterio en sí, como objetivo teórico, es posible establecer un

acuerdo o no, puede muy bien ser rechazado, por injusto, por falta de equidad, etc., pero su crítica

no afecta al núcleo de la teoría.

En lo que respecta al profesor Sen, y aún a riesgo de un cierto eclecticismo, tal vez podría

investigarse en la línea abierta por él sobre las comparaciones interpersonales de utilidad. Esto

puede hacerse a través de una serie de esquemas alternativos de normalización interpersonal con

un factor de variabilidad (en cierto modo arbitrario) y, tratar de deducir de ahí la construcción de

una Función de Bienestar Social. La comparabilidad por esta vía parece mucho más prometedora

que los principios de lógica inductiva propuestos por Harsanyi.

Respecto al segundo punto, muchos debates se han abierto en torno a la cuestión de si la

utilidad puede ser o no un buen índice con el que valorar la distribución del ingreso social. Todo

ello desde dos frentes de ataque: por un lado, el que mantiene que la utilidad entendida como

interés material no es ni puede ser lo único a tener en cuenta si lo que se pretende es un sistema

CAPÍTULO II

167 Ver fundamentalmente ELSTER, J., 1988.

167

justo; y por otro, el que argumenta que las preferencias de los individuos son modeladas

socialmente y como tal no pueden ser convertidas en un criterio de justicia.

En cuanto a la primera cuestión, Sen distingue dos críticas distintas que se pueden hacer

a la idea del bienestar basado en la utilidad. Tenemos por un lado el argumento que afirma que

la utilidad puede ser un reflejo del bienestar de una persona pero no podemos juzgarlo únicamente

en términos de utilidad, existen cosas que los individuos persiguen y cuya consecución no siempre

incide en el bienestar. El segundo argumento cuestiona que la utilidad deba ser el índice por el que

fijemos el bienestar en vez de ser otros índices o complementar la utilidad con otros.

Para justificar lo anterior Sen distingue entre el aspecto de bienestar y el aspecto de agencia

de una persona. El primero se refiere a los logros y oportunidades de una persona dentro de su

provecho personal, el fin perseguido es el propio bienestar o la consecución de la felicidad o la

satisfacción del deseo y las ambiciones. El segundo pierde de vista estos fines y va un poco más

allá de la motivación egoísta. Desde esta perspectiva habría que modificar los supuestos

conductuales de la teoría que postulan al individuo como un maximizador de la utilidad. Esto

supondría un cambio teórico importante dado que aunque no hay nada que impida que el

bienestar ajeno entre a formar parte de las funciones de utilidad individuales, el utillaje económico

utilizado no permite esta opción. La línea de investigación abierta a este respecto es la Teoría de

Juegos, pero sus resultados no permiten ser demasiado optimistas.

Respecto al segundo argumento, es decir, la conformación social de las preferencias, esta

crítica esta basada en la teoría de la disonancia cognitiva de L. Festinger. Esta teoría afirma que

se produce una tensión cuando los individuos no obtienen lo que desean, para reducir esta tensión

se utilizan una serie de mecanismos. Uno de ellos es denominado por Elster167 formación de

preferencia adaptativa, muy bien ilustrada por la fábula de la zorra y las uvas. La zorra que ante

la imposibilidad de alcanzar el racimo de uvas afirma - de todas maneras están verdes-. Este

mecanismo es completamente inconsciente, se produce de espaldas al sujeto y consiste

CAPÍTULO II

168

básicamente, en que los deseos del individuo son conformados por las opciones que tiene

disponible, es decir actúa como un mecanismo conformista.

Este mecanismo tiene una importancia fundamental ya que ataca las bases de cualquier

teoría basada en la utilidad individual, especialmente en lo que a elección social se refiere, puesto

que, por qué ha de querer un individuo que la satisfacción sea el criterio de justicia si las voliciones

individuales pueden ser conformadas por un proceso previo a la elección.

¿Hasta que punto esto es un problema grave para el utilitarismo y la Teoría de la Elección?

La cuestión es que no se puede generalizar así, Elster habla de la existencia de este mecanismo,

pero junto a él hay muchos otros: por ejemplo el opuesto inconformista cuyas preferencias se

configuran siempre en contra de lo que hay, es decir, siempre prefiere lo que no está a su alcance.

Así, por un lado la adaptación no actúa siempre ni en todos los casos, y por otro, el hecho de que

nuestras preferencias se constituyan en relación a un medio social no significa que se constituyan

mecánicamente reflejando ese medio y eliminando el momento de la elección. La configuración

de preferencias es activa, filtrada por mecanismos internos a los sujetos, como muestran las teorías

cognitivas. Aunque autores como Amartya Sen afirmen que se debe investigar en la génesis de

las preferencias, ello no significa que la investigación deba limitarse a ellos, ni que por ello la

Teoría de la Elección desaparezca. Se trata más bien de complementar tal teoría atendiendo a

aspectos relacionados con las preferencias que, tradicionalmente, no han sido atendidos, son un

hecho a tener en cuenta, como lo puede ser las restricciones que presenta el conjunto de

oportunidad. Las críticas basadas en estos aspectos abren el campo de investigación, no invalidan,

en principio, la teoría.

Se trata de resaltar la afirmación de Sen acerca de la necesidad de investigar en la génesis

y conformación de las preferencias individuales, antes de decidir que condiciones o requisitos

deben ser exigidos. El problema se plantea entonces respecto a las condiciones exigibles, pues,

estas deben ser lo suficientemente amplias para poder acoger en su seno todos los casos posibles

y lo suficientemente restrictivas como para que esa amplitud no convierta la teoría en una mera

CAPÍTULO II

168 Ejemplo de tales modificaciones puede ser la Condición de Independencia de Alternativas Irrelevantespropuesta por Arrow; tendríamos que modificar la condición arrowiana de modo que permitiera, por ejemplo,tener en cuenta 'alternativas irrelevantes' pero no permita la revelación falseada de preferencias.

169 Ver fundamentalmente SIMON, H., «De la racionalidad sustantiva a la procesal» en HAHN, F. y HOLLIS, M.,Filosofía y teoría económica. México, 1986; Models of Man. Nueva York, Ed. John Wiley & Sons, 1957;Models of Bounded Rationality. Cambridge, Massachusetts, The MIT Press, 1997; SIMON, H. Et. al.Economics, Bounded Rationality and the Cognitive Revolution. Aldershot, Ed. Edward Elgar, 1992.

169

relación de casos individuales.168

En lo que respecta al tercer punto hay que señalar que debería ser solucionada la traslación

de las maximización de la utilidad esperada, propia de las cardinalizaciones de V. Neumann y

Morgenstern, al ámbito de lo colectivo, donde su consistencia deviene determinada por los gustos

de los individuos respecto al juego. De hecho esta es una vía que no sólo está abierta sino que ha

sido objeto de estudio en los últimos años. A partir de la segunda mitad de la década de los

cincuenta los teóricos comienzan a problematizar el concepto de racionalidad como maximización

de la utilidad esperada. Simon destaca tres límites a esta racionalidad perfecta; la existencia de

información incompleta acerca del conjunto de alternativas, la incertidumbre acerca de las

consecuencias de cada alternativa y las dificultades computacionales que se le presentarían a los

agentes decisores para calcular las consecuencias de las acciones en los momentos futuros.169

Estos problemas afectan tanto a la teoría económica como a la teoría de la elección; de hecho se

ha venido postulando en los últimos años una racionalidad minimalista que poco o nada tiene que

ver con esa conducta maximizadora que mantiene la Economía, y cuyos nuevos principios

comienzan a ser desarrollados.

Como se ve muchos problemas permanecen abiertos. Es posible, como máximo, adelantar

alguna hipótesis tentativa. Pero simplemente su investigación ya nos acerca, en alguna medida,

a una forma de mejorar los mecanismos de elección y decisión de los que dispone la sociedad en

que vivimos.

* * *

CAPÍTULO II

170

En el apretado espacio de poco más de ochenta páginas se ha intentado mostrar el

desarrollo y los problemas fundamentales que afectan a la teoría de la elección social. El objetivo

principal ha sido mostrar que la teoría del comportamiento del consumidor y la teoría de la

elección social comparten de forma sustancial un núcleo teórico común. Los postulados, axiomas

y teoremas de la teoría microeconómica se trasladan así del ámbito individual al social o colectivo

haciéndose extensivo a las elecciones sociales.

Como hemos visto esto presenta problemas, cuestiones que quedan abiertas y que los

teóricos de la elección siguen abordando. Las aportaciones sustantivas que se hagan en este

terreno mostrarán hasta que punto la conceptualización economicista de las elecciones sociales

cumple los objetivos perseguidos: explicar este tipo de elecciones y en lo posible predecirlas.

En este sentido el análisis epistémico y metodológico de la teoría de la elección social, y

por extensión de la teoría del comportamiento del consumidor, nos parece ineludible. Este análisis

ayuda en primer lugar a la clarificación de la naturaleza de los problemas que están abordando

los teóricos, en la medida en que permita aclarar el status de los conceptos y principios que están

en juego. En segundo lugar permite dilucidar la relación entre estas teorías y la conexión de ambas

con el mundo, incidiendo en la naturaleza de las suposiciones y valores implicados. Pensamos que

las aportaciones que se realicen desde este enfoque contribuirán al desarrollo de un campo tan

plagado de problemas filosóficos como el de la elección social.

Por tanto, se tratará a partir de aquí de mostrar si la extensión de categorías económicas

es teóricamente rentable para abordar la conducta de elección humana en el ámbito político y

social.

SEGUNDA PARTE

LA FILOSOFÍA

«Un economista, un ingeniero y un químico se encuentranjuntos en una isla desierta y disponen de una gran lata

de jamón de York, pero no de abrelatas.Después de varios infructuosos ejercicios de ciencia aplicada

por parte del ingeniero y del químico que intentaban abrir la lata,ambos se volvieron irritados hacia el economista

que les había estado observando todo el tiempocon una sonrisa de superioridad en los labios.

‘¿Qué haría usted?’, le preguntaron,a lo que el economista contestó tranquilamente:

‘Supongamos que tenemos un abrelatas’».

CAPÍTULO III

170 Esta reducción supone que el resto de los supuestos están incorporados al principio de maximización, es decir,que deben ser presupuestos para poder afirmar que los agentes maximizan su utilidad, por ejemplo, T. W.Hutchison sostiene que el principio de maximización descansa necesariamente sobre los supuestos o principiosde conocimiento perfecto y certidumbre. Ver HUTCHISON, T. W., The Significance and Basic Postulates ofEconomic Theory. Nueva York, Ed. Augustus M. Kelley, 1960, p. 84.

173

Capítulo III.

El Análisis de los Fundamentos.

1. INTRODUCCIÓN.

En la primera parte de este trabajo han sido expuestas dos teorías, la teoría del

comportamiento del consumidor y la teoría de la elección social, que pretenden dar cuenta de dos

dominios de la realidad diferentes, pero que derivan gran parte de sus implicaciones de un

conjunto de supuestos relativamente pequeño. Este conjunto de supuestos es común a ambas

teorías o, más precisamente, los postulados fundamentales de la teoría del comportamiento del

consumidor son extrapolados a la teoría de la elección social. El contenido de estas asunciones

se refiere, fundamentalmente, al comportamiento de los agentes en situaciones de elección y

puede ser reducido al principio de maximización de la utilidad o el beneficio.170

El análisis realizado muestra que existen ámbitos sumamente problemáticos y todo parece

CAPÍTULO III

174

indicar que esos problemas remiten, en última instancia, al conjunto de supuestos elegidos para

modelar la elección humana. Ello hizo que nos peguntáramos cuál es la naturaleza de este

conjunto de supuestos, qué lugar ocupan en la estructura de las teorías, cuál es su relación con

la conducta real de los agentes y cómo se relaciona la teoría, a través de ellos, con el dominio de

fenómenos empíricos de los que pretende dar cuenta.

Estas cuestiones nos remiten, de forma ineludible, a un análisis de las teorías desde la

filosofía de la ciencia. Los interrogantes se traducen en preguntas por el status teórico, epistémico

y metodológico de este conjunto de postulados y, sobre todo, en preguntas acerca del contenido

empírico de la teoría.

Una vez en este terreno, nos encontramos con que los diversos autores, desde distintas

aproximaciones filosóficas, dan cuenta de este conjunto de principios de formas bien distintas,

pero todas bajo un denominador común: tratar de justificar el escaso contenido empírico del

conjunto de supuestos conductuales que fundamentan la teoría del comportamiento del

consumidor. Así, la naturaleza del principio fundamental, esto es, la maximización de la utilidad,

es establecida en términos de proposiciones autoevidentes, verdades a priori, tipos ideales,

hechos indiscutibles de la experiencia, ... etc.

Este hecho hace que nos preguntemos qué consecuencias tiene el problema del contenido

empírico en relación a la capacidad explicativa y predictiva de la teoría, en primer lugar, de la

teoría del comportamiento del consumidor y, en segundo lugar, por extensión,de la teoría de la

elección social. Y cómo afecta esto a teorías que actúan como fundamento de las decisiones de

política económica que se toman en la sociedad. La pregunta se concreta en cómo derivar

explicaciones y predicciones acertadas partiendo de un conjunto de supuestos a los que se

CAPÍTULO III

175

reconoce, de manera explícita, su naturaleza ideal. También aquí los diversos autores

proporcionan distintas respuestas que van desde el instrumentalismo de M. Friedman, a la

propuesta de D. Hausman, pasando por los análisis lakatosianos de M. Blaug.

Las distintas aproximaciones filosóficas van afinando, si cabe, nuestros interrogantes y

proporcionándonos respuestas parciales a nuestras cuestiones. Todo ello nos lleva a concluir que,

para responder a este conjunto de problemas necesitamos una aproximación filosófica que de

cuenta en primer lugar, de la naturaleza del conjunto de postulados fundamentales de la teoría.

En segundo lugar, que permita articular esa naturaleza con el interés de los teóricos por

proporcionar explicaciones y predicciones acerca de la conducta humana. En tercer lugar, acorde

a las propuestas de D. Hausman, necesitamos una propuesta filosófica que de cuenta del dominio

empírico de la teoría y de cómo se establecen las relaciones entre el dominio teórico y el dominio

empírico. Y finalmente, necesitamos dar cuenta de los términos en que se establece el traslado

del utillaje teórico de la economía a la elección social, es decir, necesitamos dar cuenta de las

relaciones entre ambas teorías. Todas estas cuestiones nos han conducido a la concepción

estructural, que será objeto de estudio en el capítulo cuatro.

El análisis filosófico que realizamos en las páginas que siguen ha permitido además

observar lo antiguos que son muchos de estos problemas y como han permanecido latentes a

través del desarrollo histórico de la teoría microeconómica, más o menos agazapados y

justificados por los distintos enfoques metateóricos. Necesitábamos sacarlos a la luz para poder

analizar las posibles consecuencias de su exportación a otros ámbitos de la elección humana.

CAPÍTULO III

171 MOE, T. M., «On the Scientific Status of Rational Choice Theory». American Journal of Political Science,núm. 23, pp. 215-243.

176

2. SUPONGAMOS QUE TENEMOS UN ABRELATAS.

Los supuestos de la elección racional, en su sentido económico, pueden ser a veces

difíciles de digerir si los comparamos con el comportamiento real de los sujetos. Una lista

tentativa de estos supuestos, que la mayor parte de las veces no se hacen explícitos, puede ser

la proporcionada por T. M. Moe:171 «que la gente actúa siempre racionalmente (de acuerdo con

la definición especificada), que la gente basa sus acciones sobre cierto tipo de información,

algunas veces ‘información perfecta’; que la gente actualiza sus creencias de acuerdo con las

reglas de Bayes; que la gente evalúa sus opciones sobre la base de valores especificados en la

teoría (normalmente valores no altruistas o funciones de utilidad que exhiben propiedades

matemáticas como transitividad, ordinalidad, etc); que las ‘mercancías’ políticamente relevantes

son homogéneas e infinitamente divisibles; y que las preferencias permanecen fijas a lo largo de

la estructura del tiempo en cuestión». Podríamos citar algunos otros como la continuidad de las

preferencias, que el sistema tienda al equilibrio o que la utilidad marginal de los bienes sea

decreciente. Es fácil reconocer los que han sido establecidos como axiomas en el capítulo

primero. En esta lista tentativa no todos los postulados están al mismo nivel. Pueden ser

distinguidos, por un lado los supuestos conductuales, es decir, aquellos referidos a la conducta

y motivaciones de los agentes, y por otro lado, un conjunto de supuestos que viene determinado

por el utillaje teórico y matemático que se está manejando, como puede ser la continuidad de las

preferencias o la homogeneidad y divisibilidad de las mercancías, tanto en el ‘mercado’ político

CAPÍTULO III

172 El profesor Ovejero da una vuelta de tuerca cuando afirma que dentro del paradigma neoclásico se da, enocasiones, una subordinación de la teoría al utillaje teórico: «No pocas veces a lo largo del desarrollo delparadigma neoclásico la teoría económica quedará subordinada a la aplicación del instrumental matemático,esto es, las propiedades económicas estarán definidas por los requisitos de continuidad, homogeneidad, etc.,que permiten la aplicación de operaciones matemáticas». OVEJERO, F., De la naturaleza a la sociedad.Barcelona, Ed. Península, 1987, p. 84.

173 ROBBINS, L., An Essay on the Nature and Significance of Economic Science. Londres, Ed. Macmillan, 1935.Las citas están tomadas del capítulo IV, «La naturaleza de las generalizaciones económicas», en HAHN, F. yHOLLIS, M., (Comps.), 1986, pp. 83-86.

174 MILL, J. S., A System of Logic Ratiocinative and Inductive. Londres, Ed. Routledge & Kegan, 1973. Haytraducción (resumen de todos los libros) de Lic Ezequiel A. Chávez en Librería de la Vda. De Ch. Bouret,París, México, 1919.

177

como en el económico.172 Pero son los supuestos conductuales los que han adquirido relevancia

y nos ocuparemos fundamentalmente de ellos.

Hasta la década de los treinta del siglo XX, la concepción metodológica acerca de los

supuestos consistía en afirmar que estos eran autoevidentes. Una de las formulaciones tópicas

sobre el tema, ya en 1932, es la de L. Robbins, para quien «la existencia de una contrapartida de

estos postulados en la realidad no admite una disputa extensa en cuanto se advierte plenamente

su naturaleza (...) Los postulados forman parte de nuestra experiencia diaria de tal manera que

basta enunciarlo para reconocerlos como obvios (...) Entendemos términos tales como la

elección, la indiferencia, la preferencia, etc., en términos de la experiencia interna».173

El antecedente más inmediato de Robbins es el Sistema de Lógica de J. S. Mill.174 Para

Mill las ciencias sociales han de aplicar el método deductivo inverso, caracterizado por la

investigación empírica y el deductivismo, dado que el método inductivo, que defiende en el resto

de su Sistema, no es aplicable debido a la pluralidad de causas de los fenómenos sociales y a la

imposibilidad de hacer experimentos artificiales. Así, en lo que se refiere a la Economía Política,

se parte de una serie de premisas, que se constituyen como las leyes fundamentales de la mente,

CAPÍTULO III

175 Ibídem, pp. 290-291.

176 Para un análisis de la concepción de J. S. Mill ver GOMEZ RODRIGUEZ, A., Filosofía de las ciencias sociales.Pendiente de publicación.

177 BLAUG, M., 1985b, p. 114.

178

universalmente válidas, donde se establecen secuencias entre emociones, voliciones y

sensaciones. Estas premisas básicamente son que «el hombre prefiere mayor a menor ganancia,

contrariado por otros dos hechos: la aversión al trabajo y el deseo de goces actuales de costosos

objetos». Las implicaciones que a partir de estos principios sean deducidas han de ser verificadas

bien en forma directa, a través de leyes empíricas tomadas de la experiencia inmediata, o bien de

forma indirecta, «cuando los hechos pasados y presentes puedan explicarse por medio de la

teoría de que se trate». Pero, cualquier verdad empírica, para ser establecida, ha de «quedar

comprendida en una generalización en virtud del método deductivo».175 Es decir, los principios

fundamentan deductivamente las generalizaciones empíricas. En cualquiera de los casos, ya sea

verificación directa o indirecta, estos principios fundamentales no entran en cuestión a raíz de la

verificación, ya que estos se constituyen como leyes generales bien establecidas por

instrospección o experimentación directa.176

Como ya se ha señalado, la influencia de Mill sobre la obra de Robbins es palpable, pero

ésta será una de las últimas muestras de las tesis verificacionistas defendidas en base a principios

autoevidentes.

El ataque fundamental fue debido a T. W. Hutchison en 1938. Su obra, The Significance

and Basic Postulates of Economic Theory, supone para algunos, «la introducción explícita del

criterio metodológico de falsabilidad de Popper en los debates económicos»177 y para otros el

CAPÍTULO III

178 CALDWELL, B., Beyond Positivism. Londres y Nueva York, Ed. Routledge, 1994, p.106.

179

intento de introducir en la economía algunas de las ideas centrales del positivismo lógico.178 Una

forma de conciliarlo sería afirmar que Hutchison mantiene un sutil equilibrio entre el

sostenimiento de, por un lado, el criterio de falsabilidad como un criterio que ayuda a distinguir,

en primer lugar, entre juicios de valor y proposiciones persuasivas y, en segundo lugar, entre

tautologías y proposiciones e hipótesis con contenido empírico, y por otro, sostiene algunos de

los rasgos fundamentales del positivismo lógico, como que generalizaciones, principios y teorías

sólo pueden ser verificados a través de los datos empíricos, a la vez que únicamente pueden ser

derivados a partir de ellos por medio de la inducción.

De una u otra forma, lo que sí es obvio en Hutchison es su crítica del análisis económico

considerado como un cuerpo de razonamiento deductivo obtenido desde el supuesto

fundamental de la maximización de la utilidad, el cual no necesita contrastación por ser

considerado autoevidente. «Aunque uno puede argumentar en una forma a priori vaga e

impresionista que algunos supuestos son más razonables que otros, si uno quiere encontrar

cómo, o sobre qué expectativas los oligopolistas de hecho se comportan, la única forma es ir

‘mirar y ver’» (...) «Aunque en algunos casos un rudo razonamiento a priori podría producir

resultados que resulten exactos cuando son comprobados, en último término todas estas

cuestiones (cómo se comporta la gente) solamente pueden ser decididas satisfactoriamente por

una extensa investigación empírica de cada cuestión individual». (...) «El Método de deducción

desde algún supuesto fundamental o principio de conducta económica es más o menos inútil

porque ningún ‘Supuesto Fundamental’ relevante puede ser hecho en base a nuestro

CAPÍTULO III

179 HUTCHISON, T. W., 1960, pp. 100, 114 y 118.

180 HALL, R. L. y HITCH, C. J., «Price Theory and Business Behaviour», Oxford Economic Papers, núm. 2, 1939,pp.12-45. LESTER, R. «Marginalism, Minimum Wages and Labour Markets», American Economic Review,núm. 36, 1947, pp. 135-48.

181 FRIEDMAN, M., 1953. En ocasiones se utilizará la traducción de la primera parte del capítulo I titulado «Lametodología de la economía positiva», en HAHN, F y HOLLIS, M. (Comps.), 1986, pp. 41-76.

182 HAUSMAN, D., 1992, p. 164.

180

conocimiento presente».179

A lo largo de la década de los cuarenta se produce una gran actividad investigadora

dedicada a comprobar la validez empírica de los supuestos fundamentales de la teoría económica,

con autores como Hall y Hitch o Lester.180 Autores que fueron citados explícitamente por

Friedman en su polémica obra Essays in Positive Economics.181

3. EL IRREALISMO DE LOS SUPUESTOS: M. FRIEDMAN.

Pocos textos han causado tanto impacto en el desarrollo de una disciplina y han sido tan

profusamente leídos por generaciones y generaciones de economistas como éste. Tras décadas

de polémica acerca de la medida en que los supuestos reflejan las motivaciones humanas para

la acción, Friedman pretende zanjar el tema desde una posición instrumentalista. Lo importante,

viene a decir, es que la teoría prediga, no el realismo o irrealismo de los supuestos. En este

sentido, y en palabras de Lee Hansen a D. Hausman, el ensayo de Friedman proporcionó en la

década de los cincuenta una sensación de liberación. «Ahora podían continuar con el trabajo de

explorar y aplicar sus modelos sin preocuparse por objeciones al realismo de sus supuestos».182

Para Friedman, una hipótesis, o teoría, consta de dos partes, por un lado un modelo

abstracto lógico o matemático que simplifica el mundo real y, por otro, una serie de reglas que

CAPÍTULO III

183 FRIEDMAN, M., 1953, pp. 25-26.

181

definen la clase de fenómenos susceptibles de aplicación del modelo y que ponen en

correspondencia los términos abstractos del modelo con los fenómenos observables. El papel de

los supuestos es fundamental en su concepción, ya que, «al hablar de los supuestos de una teoría

-afirma- estamos creo, intentando establecer los elementos claves del modelo abstracto».183

Si los supuestos son los elementos claves de un modelo abstracto que se pone en

correspondencia con los fenómenos observables a través de un conjunto de reglas, esto significa

que ese conjunto de supuestos reflejan o refieren de alguna manera a los fenómenos empíricos.

Hasta aquí, si pasamos por alto el papel de las reglas de correspondencia, no hay nada que

merezca ser destacado, el papel de la abstracción es práctica común dentro de la construcción

teórica. Tenemos por un lado un modelo simplificado de la realidad y por otro un dominio de

fenómenos empíricos a los que se aplica. Pero Friedman va un poco más allá. Un conjunto de

afirmaciones entresacadas de su obra nos ayudará a comprender la trascendencia de sus

postulados y el debate que se generó a raíz de ellos.

«Vista como un conjunto de hipótesis sustantivas, la teoría debe juzgarse por su poder

de pronóstico para la clase de fenómenos que trata de explicar» (...) «Se observará que algunas

hipótesis verdaderamente importantes y significativas tienen ‘supuestos’ que son descripciones

muy inexactas de la realidad y que, en general, cuanto más significativa sea una teoría, serán

menos realistas los supuestos. (...) Para ser importante, por lo tanto, una hipótesis deberá ser

descriptivamente falsa en sus supuestos; (...) No debemos preguntarnos si los ‘supuestos’de una

teoría son descriptivamente realistas, porque nunca lo son, sino si son aproximaciones lo bastante

buenas para el propósito de que se trate. Y este interrogante sólo puede constestarse viendo si la

CAPÍTULO III

184 FRIEDMAN, M., en HAHN, F. y HOLLIS, M. 1986, pp. 50-59.

185 CARTWRIGHT, N., «Causal Laws and Effective Strategies», Nous, 13, 1979.

182

teoría funciona, es decir, si produce pronósticos suficientemente correctos».184

Hay cuatro cuestiones que merecen ser resaltadas:

a) Que los supuestos sean ‘descriptivamente falsos’. Con ello Friedman alude al papel de

la abstracción en ciencia, donde se eliminan los datos contingentes de las teorizaciones. En este

sentido la posición de Friedman es cercana a argumentaciones recientes en Filosofía de la Ciencia

como la de N. Cartwright,185 para quien las leyes fundamentales de la física son meros

constructos. El problema radica en que no queda claro que significa para Friedman el término

descriptivamente falso, una idealización de la realidad o una descripción parcial de la misma.

b) En segundo lugar, hay que resaltar que la hipótesis es significativa respecto al rango

de fenómenos que se pretende explicar. Para el autor la teoría no pretende explicar los fenómenos

implicados en el comportamiento de los agentes, sino explicar los fenómenos económicos en

términos de las categorías de oferta y demanda, es decir, fenómenos relativos a precios y

cantidades de bienes intercambiados en el mercado. Pero la postura instrumentalista de Friedman

y su insistencia en que la predicción es el único test relevante en la validación de una hipótesis,

impide que puedan ser explicados hechos económicos simples como, por ejemplo, la caída de

la demanda de un bien cuando aumenta su precio.

c) En tercer lugar, el test de la predictibilidad, que es el que hace que una teoría o hipótesis

sea empíricamente significativa, olvidando por completo el papel que la explicación de los

fenómenos desempeña en la práctica científica.

d) Y, finalmente, la confirmación de las hipótesis, íntimamente relacionada con el tipo de

CAPÍTULO III

186 Este apartado está fundamentalmente basado en NAGEL, E., «Assumptions in Economic Theory». AmericanEconomic Review, 1963, pp. 211-219.

187 Como proponen recientemente Giere y Van Frassen. GIERE, R., Understanding Scientific Reasoning. NuevaYork, Ed. Olt, Rinehart y Winston, 1984. VAN FRASSEN, B. C., The Scientific Image. Oxford, Oxford UniversityPress, 1980.

188 FRIEDMAN, M., 1953, p. 32.

183

predicciones que la teoría es capaz de realizar.

3.1. ENTRE LA DESCRIPCIÓN PARCIAL Y LA IDEALIZACIÓN.186

Uno de los significados que parece dar Friedman al término ‘supuestos irreales’ no se

refiere a que estos sean falsos empíricamente hablando, sino a que son abstracciones de la

realidad donde se han eliminado los datos contingentes y, en general, toda la complejidad que

rodea a los fenómenos en el mundo real.187 A este respecto afirma: «Una teoría completamente

realista del mercado del trigo tendría que incluir no sólo las condiciones directamente

subyacentes a la oferta y la demanda para el trigo sino también la clase de moneda o

instrumentos de crédito usados para hacer los intercambios; las características personales de los

comerciantes de trigo, tales como el color de pelo y ojos de cada comerciante, sus antecedentes

y educación, el número de miembros de su familia, sus características, antecedentes y educación,

etc».188 Es obvio que así entendido, el realismo tendría una significación trivial y que ninguno de

sus críticos se refiere a eso, ni mucho menos, cuando critica el irrealismo de los supuestos.

Debemos hacer especial hincapié en el término ‘descriptivamente falsa’. Con esta

expresión Friedman parece entender que dicho conjunto de supuestos son descripciones

parciales de la realidad, donde se aíslan los datos pertinentes para la investigación. Si deseamos

investigar, por ejemplo, los movimientos de aceleración y desaceleración de un móvil, no

CAPÍTULO III

189 Ibídem, pp. 34-36.

190 NAGEL, E., 1963, pp. 215-216.

184

importará el color de dicho móvil, aunque sí es probable que importe su forma. El color sería un

dato contingente, mientra la forma sería un dato relevante en la construcción de la hipótesis, pero

ello no quiere decir que los datos relevantes sean falsos. La abstracción en este sentido es moneda

corriente en la práctica científica. La elección del término ‘descriptivamente falsa’ parece

desacertado, ya que existe diferencia entre que la información sea falsa y que sea parcial.

Pero hay otro significado explícito de los supuestos de la hipótesis en el texto de

Friedman, y éste es su consideración, no ya como descripciones parciales de la realidad, sino

como tipos ideales. Dichos tipos ideales son, según Friedman, desarrollados para aislar las

características esenciales de los problemas a investigar, no deben corresponderse a nada del

mundo real -porque no hay nada a lo que corresponderse-, y no deben hacerse pasar por

categorías descriptivas.189

En Friedman, como hemos visto, su construcción parece obedecer única y

exclusivamente a una concepción instrumental de la ciencia; la irrealidad de los supuestos se ve

justificada si la teoría predice en concordancia con ese tipo ideal y las predicciones se demuestran

ciertas. Se construyen para aislar los factores relevantes o para abstraerlos de un terreno

sumamente complejo y, en ese sentido, no son reales; pero como afirma Nagel190 «las leyes de

la naturaleza formuladas por referencia a casos puros no son por ello inútiles. Al contrario, una

ley así formulada establece como se relacionan los fenómenos cuando no están afectados por

numerosos factores cuya influencia no puede ser nunca completamente eliminada, pero cuyos

efectos generalmente varían en magnitud con diferencias en las circunstancias concomitantes

CAPÍTULO III

191 FRIEDMAN, M., 1953, p. 18.

185

bajo los cuales los fenómenos se repiten. De acuerdo con esto la diferencia entre lo que es

asegurado para los casos puros y lo que realmente ocurre puede ser atribuido a la influencia de

los factores no mencionados en la ley. Por otra parte, dado que estos factores y sus efectos

pueden a menudo ser comprobados, la influencia de los factores puede ser clasificada

sistemáticamente en tipos generales; y en consecuencia, la ley puede ser vista como el caso límite

de un conjunto de otras leyes correspondientes a esos distintos tipos». Pero la postura del

profesor Friedman no parece ser consistente con este planteamiento si atendemos a los ejemplos

que señala, extraídos fundamentalmente de la física. Esto es así dado que las leyes generales

formuladas por referencia a casos puros contienen términos teóricos. Términos que no pueden

ser reemplazados sin que se altere el significado y función de estas proposiciones. Y este es

precisamente el planteamiento del autor cuando afirma de la ley de la caída de los cuerpos de

Galileo: «la hipótesis puede ser reformulada sin dificultad para omitir toda mención de un vacío:

bajo un gran conjunto de circunstancias, la distancia que recorre un cuerpo que cae en un tiempo

dado está dada por la fórmula s=½ gt2 (...) Se acepta la fórmula porque funciona, no porque

vivamos en un vacío aproximado».191 Todo lo que es necesario es que los cuerpos se comporten

como si cayeran en un vacío aproximado, igualmente, todo lo que se necesita es que los agentes

se comporten como si maximizaran su utilidad, pero el término utilidad es, en principio, un

término teórico que no puede ser reemplazado sencillamente por el algoritmo de la maximización

del beneficio sin que la estructura de la teoría se vea afectada. La maximización de la utilidad no

es sólo la maximización del beneficio pero no existe, en el tratamiento de Friedman, otra

contrapartida empírica que no sea ésta.

CAPÍTULO III

192 FRIEDMAN, M. y SAVAGE, J., «The Utility Analysis of Choice Involving Risk». Journal of Political Economy,Vol. LVI, 1948, pp. 279-304.

186

Hay aún otra forma de juzgar la irrealidad de los supuestos afirmada en Essays on

Positive Economics, y es entenderlos como la cláusula antecedente de un condicional universal.

En este caso es evidente, y hasta trivial, que la validez de la proposición no depende de la verdad

del antecedente. Pero el antecedente establece las condiciones en las cuales se cumpliría la

hipótesis. Afirmar en este sentido que los supuestos son falsos implica afirmar que no existe

dominio empírico en el que la hipótesis sea válida.

Así tres interpretaciones posibles del irrealismo de los supuestos nos conducen bien a un

significado trivial del término realismo, bien a asignar a los supuestos una función que, en el

mejor de los casos y desde una perspectiva positivista (que es la que parece sostener el autor),

pertenecería a las reglas de correspondencia. O bien, nos conduce a una hipótesis que no posee

dominio empírico al que aplicarla.

3.2. LA CLASE DE FENÓMENOS QUE LA HIPÓTESIS TRATA DE EXPLICAR.

Uno de los papeles que Friedman atribuye a los supuestos es que estos son una forma

económica de presentar o describir una teoría, y para ello recurre al ya famoso ‘como si’. Las

hojas de los árboles se comportan ‘como si’ trataran de maximizar la luz solar que reciben, los

jugadores de billar se comportan ‘como si’ conocieran las fórmulas matemáticas que establecen

las direcciones óptimas del desplazamiento192 y los empresarios ‘como si’ «conocieran las

funciones de costo y demanda aplicables, calcularan el costo y el ingreso marginales a partir de

todas las acciones disponibles, y llevaran cada línea de acción hasta el punto en que se igualan

CAPÍTULO III

193 FRIEDMAN, M., 1953, pp. 21-22.

194 Ibídem, p. 20.

195 BECKER, G., « Irrational Behaviour and Economic Theory». Journal of Political Economy, Vol. LXX, núm.1,1962.

187

el costo marginal y el ingreso marginal aplicable», 193 todo ello según sus ya célebres ejemplos.

El hecho de que, hasta donde sabemos, las hojas de los árboles no busquen deliberada o

conscientemente maximizar la luz solar no es relevante en la hipótesis que predice su densidad

alrededor del tronco, dado que los mecanismos implicados en el movimiento de las hojas no

«están entre la clase de fenómenos que la hipótesis trata de explicar»,194 igual que no son

relevantes los mecanismos internos previos al proceso de elección de los agentes. Ello, como

veremos en el próximo apartado, supone un hiato entre la capacidad explicativa y predictiva de

la teoría, ya que el ‘como si’ no proporciona los mecanismos causales relevantes implicados en

los fenómenos. Pero lo que es aún más significativo, en la medida en que afecta igualmente a la

capacidad explicativa de la teoría, es que para Friedman, cualquier conjunto de supuestos es

válido siempre que produzca predicciones acertadas. Así la conducta de los agentes puede venir

determinada por la maximización de la utilidad, según los presupuestos vistos en el capítulo uno,

por el hábito, por el azar o por las ‘leyes’ de supervivencia del mercado.

En 1962 G. Becker195 demuestra precisamente que conductas basadas en el hábito o en

el azar, generan las mismas implicaciones que la hipótesis de maximización de la utilidad. Una

de las consecuencias fundamentales de la teoría de la elección es que la curva de demanda de

bienes tiene inclinación negativa. Este hecho pude ser derivado de una amplia variedad de

conducta irracional, entendiendo por irracional; conducta impulsiva y conducta por inercia, es

decir, conducta no maximizadora. Veamos este ejemplo.

CAPÍTULO III

196 Recordemos que la completud es absolutamente necesaria pues sin ella no podríamos comparar lasalternativas, mientras que la transitividad impide que las curvas de indiferencia se crucen.

188

La teoría tradicional asume que la familia, entendida como sujeto de elección, elegirá el

mejor conjunto de mercancías compatible con sus recursos. Se requieren las propiedades de

completud y transitividad de las preferencias para ordenar los conjuntos,196 y el mejor conjunto

será aquel que produzca mayor utilidad. En un eje de coordenadas se representan dos bienes, la

recta de presupuesto y las curvas de indiferencia de una familia dada (donde, como se recordará,

se representan distintas combinaciones de ambos bienes que reportan la misma utilidad). El

mejor punto está donde la línea presupuestaria es tangente a la curva de indiferencia más alta. Un

cambio en la línea presupuestaria, lo que se traduce en cambios en los ingresos, moverá ese

punto de equilibrio, y el teorema fundamental de la teoría establece que la curva de demanda para

una mercancía, manteniéndose los ingresos constantes, debe estar negativamente inclinada.

Si atendemos a la gráfica, (figura XVI) un cambio en la línea presupuestaria de AB a CD

incrementa el precio relativo de X y reduce el de Y (manteniéndose el ingreso constante). El

mejor punto cambia de p a p’ y el teorema fundamental establece que p’ está a la izquierda y por

encima de p (se elige menos de X y más de Y).

La principal novedad es que Becker demuestra que la pendiente negativa de la curva de

demanda del mercado resulta, no tanto de conducta racional per se, sino de un principio general,

que no especifica, el cual incluye una amplia clase de conducta irracional.

En el artículo citado se muestran dos modelos de conducta irracional, entendiendo

siempre por tal aquella que no maximiza la utilidad: la conducta impulsiva y la conducta por

inercia. La primera será representada por un modelo probabilístico en el cual las decisiones son

CAPÍTULO III

189

determinadas por la tirada de un dado de muchos lados. La segunda por un modelo en el cual las

decisiones son determinadas por el pasado.

Las familias impulsivas no consultan una función de utilidad, sino un mecanismo

probabilístico, donde cada oportunidad tiene la misma probabilidad de ser elegida. Si las

oportunidades fueran inicialmente restringidas a la línea de presupuesto AB, (figura XVI), el

consumo medio de muchas familias estaría alrededor de p, con diferentes familias distribuidas

alrededor de p. Un cambio en el precio relativo rotaría la línea de presupuesto a través de p, el

punto que representa el consumo del mercado. La línea CD representa un incremento

compensado en el precio de X y el punto óptimo sería ahora elegido aleatoriamente a lo largo de

CD en lugar de AB. Cada familia estaría así en algún lugar sobre CD, pero siempre la localización

promedio de muchas familias independientes estaría, casi ciertamente, en el medio representado

por p’. Un incremento en el precio relativo de X cambia las oportunidades de X aumentando la

fracción de familias con menos X que en la posición inicial y por tanto incrementando la

probabilidad de que una familia impulsiva reduzca su consumo de X. Lo que simplemente es más

probable para una familia particular, llega a ser cierto para un gran número de ellas.

En el modelo de inercia, las familias consumen exactamente lo que consumieron en el

pasado. El punto p representa otra vez el consumo promedio de un gran grupo de familias

enfrentadas con la línea de presupuesto AB, y CD representa la línea resultante de un incremento

en el precio de X. Las familias situadas inicialmente en la región Ap podrían permanecer allí

indefinidamente después del cambio de precios. Algunas, sin embargo, también estarían

inicialmente en la otra mitad de la línea, la región pB, y no podrían permanecer allí dado que pB

CAPÍTULO III

190

estaría fuera del nuevo conjunto de oportunidad OCD. Por tanto, deben cambiar su consumo

hacia la región pC, situándose a la izquierda y por encima de p. De lo cual se deduce que la curva

de demanda estaría negativamente inclinada.

Figura XVI

Recapitulemos, contamos ahora con un nuevo conjunto de supuestos de los que derivar

una de las implicaciones fundamentales de la teoría del comportamiento del consumidor: la

pendiente negativa de la curva de demanda. En este planteamiento, esta pendiente negativa, o lo

que es lo mismo, que un incremento en el precio de un bien reduce la demanda de consumo de

ese bien, es perfectamente deducible de este nuevo conjunto de supuestos acerca de la conducta

de los agentes. No se trata de una hipótesis complementaria, en el sentido de una hipótesis

postulada para aquellos casos en los que la conducta no puede ser explicada en función de la

maximización de la utilidad, aquí el mecanismo causal implicado es una variable completamente

distinta y externa al sujeto. En este planteamiento las elecciones vienen determinadas

fundamentalmente por el conjunto de oportunidad determinado a su vez por la renta o el

presupuesto.

CAPÍTULO III

197 FRIEDMAN, M.,1953, p. 22.

198 Ibídem, p. 40.

191

Contamos aún con un tercer conjunto de supuestos que, según Friedman, ayudan a

validar la hipótesis de comportamiento consistente con la hipótesis de la maximización: «si el

comportamiento de los empresarios no se aproxima de algún modo al comportamiento

consistente con la maximización de los rendimientos, parece improbable que permanezcan

mucho tiempo en el mercado (...) El proceso de la selección natural ayuda así a validar la

hipótesis; o mejor dicho, dada la selección natural, la aceptación de la hipótesis puede basarse

en gran medida en la afirmación de que resume adecuadamente las condiciones de la

supervivencia».197 Tenemos pues, un nuevo conjunto de supuestos epistémicos: los supuestos

de la selección natural y la lucha por la supervivencia que harían cierta la predicción en el caso

de que el comportamiento se ajustase a lo pronosticado. Pero estos supuestos no forman parte

de la hipótesis, ni de la estructura de la teoría en su conjunto.

Llegados aquí, parece ser que los supuestos no juegan otro papel que la presentación de

la teoría de una forma económica, dado que, según Friedman: «En general, hay más de un

procedimiento para la formulación de tal descripción, más de un conjunto de supuestos en cuyos

términos puede presentarse la teoría. La elección entre tales supuestos alternativos se hace de

acuerdo con la economía, la claridad y la precisión resultantes en la presentación de la

hipótesis».198 Es obvio que los determinantes de la conducta de los agentes económicos, aquello

de lo que ‘hablan’ los supuestos no entra dentro del rango de fenómenos que la teoría pretende

explicar, el objetivo teórico es la predicción en referencia a categorías como oferta, demanda, o

cantidades de bienes intercambiados y a qué precios. Pero curiosamente, este desinterés por la

CAPÍTULO III

199 Friedman utiliza hipótesis o teoría de forma intercambiable, especialmente en el pasaje que alude a lacompletud y la consistencia lógica. Como señala G. Massey: «Tal uso es evidente en el pasaje citado, ya quela completud es un atributo de un sistema de proposiciones y no de una proposición aislada». MASEY, G.,«Profesor Samuelson on Theory and Realism: Comment». American Economic Review, 1965, p. 1158.

200 FRIEDMAN, M., en HAHN, F. y HOLLIS, M., (Comps.), 1986, pp. 43, 47, 50.

192

validez o no de los supuestos nos deja sin la posibilidad de explicar hechos económicos

relevantes, como, por continuar con el mismo ejemplo, por qué la subida en el precio de un bien

implica una caída en la demanda de ese bien. No existe en la presentación de la hipótesis ningún

mecanismo causal implicado, o existe más de uno contradictorios entre sí, para dar cuenta de

la conexión entre las elecciones de los agentes y lo que sucede en el mercado. Bajo este mandato

metodológico, la hipótesis tampoco explica aquellos fenómenos que trata de explicar.

3.3. LA PREDICCIÓN.

Friedman no deja de afirmar a lo largo de todo el texto que el único test relevante para la

validación de una hipótesis o teoría199 es que prediga y que sus predicciones sean exitosas, no el

realismo de sus supuestos. En este sentido, la tarea de la economía positiva «es la provisión de

un sistema de generalizaciones que puedan usarse para generar pronósticos correctos acerca de

cualquier cambio en las circunstancias» (...) «La meta final de una ciencia positiva es el desarrollo

de una ‘teoría’ o ‘hipótesis’ que genere pronósticos válidos y significativos (es decir, no

perogrulladas) acerca de fenómenos no observados todavía» (...) La única prueba relevante de

la validez de una hipótesis es la comparación de sus pronósticos con la experiencia».200

Esto es una exposición tajante de la postura metodológica del instrumentalismo. Las

teorías son sólo instrumentos útiles para realizar predicciones. Bajo esta perspectiva, es cierto que

la tesis del irrealismo de los supuestos es inatacable. El comportamiento de los sujetos bien puede

CAPÍTULO III

201 POPPER, K. R., 1987, pp. 139, 149.

202 ELSTER, J., 1990b. El cambio tecnológico. Barcelona, Ed. Gedisa, 1990a.

193

obedecer al azar, al hábito, a la maximización de beneficios, a la lucha por la supervivencia, etc,

..., cualquier conjunto de supuestos es válido mientras la teoría prediga correctamente. En este

sentido, no deja de ser sorprendente, las constantes referencias a la explicación de los fenómenos

que salpican el texto del autor. Ello es así porque Friedman parece ligar su postura

instrumentalista a la tesis de la simetría entre explicación y predicción. Una exposición magistral

de dicha tesis es la de K. R. Popper: «el uso de una teoría para predecir algún acontecimiento

específico es sólo otro aspecto de su uso para explicar tal acontecimiento (...) Según este análisis

no hay gran diferencia entre explicación, predicción y experimentación. Es una diferencia no de

estructura lógica sino de énfasis; depende de lo que consideremos como nuestro problema y de

lo que no consideremos como tal».201 Si tomamos una leyes universales como dadas, junto con

una condiciones iniciales referidas al fenómeno que estamos tratando y a partir de ahí

establecemos un pronóstico, estaremos realizando una predicción, si a partir del pronóstico,

buscamos la causa del mismo en las leyes universales y las condiciones iniciales, estaremos

realizando una explicación. El problema de la tesis de la simetría es que no permite distinguir las

correlaciones causales genuinas de las espúreas.202 Que un acontecimiento sea seguido de forma

invariable por otro no significa, si no se especifica el mecanismo causal, que el primero sea causa

del segundo, ambos pueden ser efecto de un tercer factor. Para predecir nos basta una

correlación, para explicar no. Para explicar debemos conocer el mecanismo causal que liga un

acontecimiento a otro. En función de esto el instrumentalismo de Friedman, en la medida en que

se apoya en la simetría entre explicación y predicción es insostenible, dado que la tesis de la

CAPÍTULO III

203 FRIEDMAN, M., 1953, p. 10.

204 Ibídem, p. 22-23.

194

simetría es falsa.

3.4. LA CONFIRMACIÓN DE LA HIPÓTESIS.

Como ya hemos señalado la única prueba relevante de la validez de una hipótesis es la

comparación de sus pronósticos con la experiencia. Para Friedman la dificultad de la

experimentación controlada en Ciencias Sociales no supone una diferencia básica entre éstas y

las Ciencias Físicas. La diferencia entre un experimento controlado y uno que ‘simplemente

ocurre’ es únicamente una cuestión de grado: «Ningún experimento puede ser controlado por

completo, y toda experiencia es controlada en parte».203 La información, una vez recogida, ha de

ser interpretada para comprobar si el pronóstico se ajusta a la realidad. Si se ajusta, la hipótesis

es tentativamente aceptada, si no se ajusta es rechazada. Pero tras toda una exposición de

rigurosidad metodológica en la confirmación de las hipótesis Friedman, lamentablemente,

concluye afirmando: «Una fuente de confirmación más importante aún para la hipótesis de la

maximización de los rendimientos, es la experiencia derivada de innumerables aplicaciones de

la hipótesis a problemas específicos y la reiterada ausencia de refutación de sus implicaciones.

Esta confirmación resulta muy difícil de documentar; está dispersa en numerosos memorandos,

artículos y monografías que se ocupan primordialmente de problemas específicos concretos, no

de someter a prueba la hipótesis. Pero el uso y la aceptación continuos de la hipótesis durante un

largo período, y la ausencia de toda opción coherente e intrínsecamente consistente que tenga

aceptación generalizada, es un claro testimonio indirecto de su validez».204 Es una pena que el

CAPÍTULO III

205 BLAUG, M. 1985b, p. 137.

206 SIMON, H., «Problems of Methodology - Discussion». American Economic Review, 1963, pp. 229-231.Samuelson no es menos sarcástico cuando lo denomina ‘el giro F’. SAMUELSON, P., «Problems of Methodology- Discussion». American Economic Review, 1963, pp. 231-236.

195

autor no mencione ninguno de estos trabajos en los que la hipótesis de la maximización del

rendimiento funciona como supuesto y se ve confirmado por los pronósticos. Desgraciadamente

tal y como afirma Blaug: «toda doctrina falsa que en el mundo ha sido, ha sido defendida sobre

esas bases».205

H. Simon niega tan siquiera la posibilidad de que la hipótesis pueda ser confirmada

llegando a denominar a la postura del autor el ‘principio de irrealidad de Friedman’.206

Para Simon, la teoría de la maximización de beneficios por parte del empresario constaría

de dos premisas, X, Y, de las que se deduce la conclusión Z.

X: los hombres de negocio desean maximizar sus ganancias.

Y: los hombres de negocio pueden hacer y hacen los cálculos que identifican el curso de acción

que maximizará esas ganancias.

Z: precios y cantidades son observados a aquellos niveles que maximizan los beneficios de las

empresas en el mercado.

Para Friedman lo importante es que Z no sea refutada a través de su contrastación con la

experiencia. Z sería la predicción, mientras X e Y serían los supuestos a partir de los cuales

derivar dicha predicción. La validez o invalidez de X e Y está fuera de discusión mientras la

hipótesis Z sea confirmada. La cuestión es cómo confirmar esta hipótesis, que de hecho es la

hipótesis de equilibrio en el mercado bajo competencia perfecta. Para Simon esto es, de hecho,

imposible: «La mayoría de los críticos han aceptado el supuesto de Friedman de que la

CAPÍTULO III

207 SIMON, H., 1963, p. 230.

196

proposición Z es la empíricamente comprobable, mientras que X e Y no son directamente

observables. Esto es un disparate. Nadie ha observado, de hecho, si la posición actual de las

firmas de negocios es la maximización de beneficios, nadie ha propuesto un método de evaluar

esta proposición por observación directa. No puedo imaginar como sería dicho test en la medida

en que el experimentador sería tan incapaz como las firmas de negocios para descubrir cuál es

la posición óptima. (...) Si bajo estas circunstancias, Z es una teoría válida, debe ser porque se

deduce de supuestos empíricamente válidos acerca de los actores, con leyes de composición

empíricamente válidas. Tenemos un considerable cuerpo de evidencias acerca de X e Y, y el peso

de la evidencia es que Y es falso. La intención obvia del principio de irrealidad de Friedman es

salvar la teoría clásica a la luz de la patente invalidez de Y».207

El argumento de Simon tiene dos partes: en primer lugar la posibilidad de comprobar si

efectivamente las firmas de negocios o las empresas se comportan como maximizadores de

utilidad y en segundo lugar que los individuos posean las habilidades computacionales necesarias

para realizar la maximización.

a) El problema fundamental que se presenta en la comprobación de la hipótesis es que

las predicciones no se comprueban contra los hechos que serán observados, sino contra los que

‘serían’ observados ‘si’ los valores de las variables fueran los verdaderos y los ceteris fueran

paribus, pero ni se dan criterios para ajustar los valores observados a los valores predichos, salvo

alguna cualificación vagamente establecida acerca de la necesidad de interpretar los resultados

CAPÍTULO III

208 «Pero la interpretación de tal información es mucho más difícil. Con frecuencia es compleja y siempre esindirecta e incompleta. Su recolección es a menudo ardua, y su interpretación requiere generalmente unanálisis sutil y complicadas cadenas de razonamiento, de donde raras veces surge una verdadera convicción».FRIEDMAN, M., 1953, pp. 10-11.

209 HOLLIS, M. y NELL, E., Rational Economic Man. Londres, Ed. Cambridge University Press, 1975, p. 34.

210 Ver fundamentalmente SIMON, H., 1957, 1997 y SIMON, H. Et. al. 1992.

197

de la observación,208 ni se especifican las cláusulas ceteris paribus. Para M. Hollis y E. Nell:209 «En

efecto, la idea entera de comprobar el análisis marginal es absurda. Ya que, qué podría un test

revelar. Los resultados negativos muestran solamente que el mercado es defectuoso. Pueden ser

dadas varias interpretaciones -los valores observados no son los verdaderos valores de las

variables, o ha habido interferencias no económicas, o las curvas de costes, aunque

auténticamente registradas, se han comportado mal, o que el mercado es imperfecto en alguna

otra forma. Pero una interpretación no es posible- que el análisis marginal ha sido refutado».

Según los autores, las proposiciones que caracterizan las predicciones típicas de la economía, no

son proposiciones sintéticas, es decir, no tienen contenido empírico, sino analíticas y, por tanto,

vacías de todo contenido factual. Si las predicciones económicas están expresadas por

proposiciones analíticas, y éstas son verdaderas a priori, no habrá nada que contrastar con la

experiencia.

b) Pero la verdadera fuerza del argumento de Simon que reseñábamos más atrás

descansa en la invalidez de Y, es decir, en la capacidad de la mente humana para realizar los

cálculos necesarios que conllevan la elección de la alternativa óptima. El modelo de la mente

humana sostenido por los economistas neoclásicos es, para el autor, un modelo olímpico, más

propio de la mente de un Dios que de la mente del hombre.

Simon210 trata de sustituir los supuestos de maximización por los supuestos de

CAPÍTULO III

211 SIMON, H., 1997, p. 323.

198

racionalidad limitada caracterizada como una búsqueda selectiva mediante la aplicación de reglas

empíricas, que finaliza una vez que ha sido encontrada una solución satisfactoria. En este modelo

se sustituye la función de utilidad por los criterios de satisfacción y por mecanismos de dirección

de atención que sitúan los ítems en la agenda del decisor. Sustituye asimismo reglas de decisión

de tipo más o menos estadístico por reglas empíricas. El decisor ya no debe evaluar y comparar

todas las alternativas y lo que es más importante, la racionalidad ya no viene definida como

optimización sino como un proceso de búsqueda de soluciones para la resolución de problemas.

Dentro de estas reglas empíricas o heurísticas, un componente fundamental es el criterio de

parada stop rule que indica al agente cuando debe finalizar la búsqueda. «Rara vez hay garantía

de que la alternativa generada es la alternativa óptima y que no podría ser encontrada una mejor

si la búsqueda continuara. En ausencia de tal garantía debe ser establecido algún estándar que

constituiría un ítem satisfactorio, y la búsqueda puede ser detenida cuando es encontrada una

alternativa que satisface ese estándar. La evidencia psicológica muestra que el estándar de

satisfacción toma la forma de niveles de aspiración (...) El proceso de encontrar alternativas por

búsqueda heurística con el uso de una regla de parada basada en aspiraciones ajustables es

normalmente llamada satisficing».211 Metodológicamente hablando, la postura de Simon es una

vuelta a la comprobación de la validez empírica de los supuestos de la teoría y allí donde sean

demostrados inválidos, a través de la investigación y la experimentación en el campo de la

psicología, debe ser postulada su sustitución por leyes empíricas que describan la conducta de

los agentes de la forma más fiel a la realidad posible.

* * *

CAPÍTULO III

212 BOYLAND, T. y O’GORMAN, P., Beyond rhetoric & realism in economics. Towards a reformulation of economicmethodology. Londres, Ed. Routledge., 1995, p. 113.

213 HAUSMAN, D., 1992, p. 164.

199

La relevancia del ensayo de Friedman viene marcada, más que por el valor del trabajo en

sí, por la polémica que suscitó y que, de hecho, sigue suscitando y por la multitud de cuestiones

que al hilo de las críticas se han ido desarrollando, como la forma y función de una teoría, las

relaciones de la teoría con la realidad, el status de los términos teóricos, las condiciones de validez

de una hipótesis, el papel de la predicción en la ciencia, etc. A lo largo de la década siguiente

muchos economistas se volvieron hacia los fundamentos de su disciplina, pero filosóficamente

hablando Essays in Positive Economics viene marcado por la ambigüedad y en algunos casos

por la incoherencia y el dogmatismo.

No se encuentra en todo el trabajo ni una sola referencia a la literatura contemporánea

sobre filosofía de la ciencia. Sin embargo, tal y como afirman Boyland y O’Gorman, una exégesis

del texto nos proporciona un muestrario de afirmaciones que respaldan filosofías de la ciencia

muy distintas, e incluso contradictorias, incluyendo instrumentalismo, positivismo lógico,

falsacionismo popperiano, posturas cercanas a Kuhn y realismo científico.212 Pero si bien el

ensayo no ha despertado la admiración de los metodólogos, sus principios fueron rápidamente

asumidos por los practicantes de la disciplina con lo que Lee Hansen denominó, como ya

señalamos, una sensación de liberación.213

La ambigüedad se refiere básicamente a su consideración acerca del status y función de

las teorías científicas. Básicamente, la tesis del irrealismo de los supuestos es inatacable si

consideramos las teorías únicamente como instrumentos útiles para realizar predicciones. Pero,

CAPÍTULO III

214 Como principales defensores de la aplicación de la metodología popperiana al ámbito de la economía puedenser citados, BLAUG, M., «Kuhn versus Lakatos, or Paradigms versus Research Programmes in the History ofEconomics». History of Political Economy, Vol. 7, 1975, 399-433; BLAUG, M., 1985b y BLAUG, M., «Why Iam not a Constructivist: Confessions of an Unrepentant Popperian», en BACKHOUSE, R., (Ed.).New Directionsin Economic Methodology. Londres, Ed. Routledge, 1994, pp. 137-154. CALDWELL, B., 1994 y « TwoProposals for the Recovery of Economic Practice» en BACKHOUSE, R., (Ed.), 1994 y, como ya ha sido señaladoT. W. Hutchison. Para un análisis de estas propuestas ver GOMEZ RODRIGUEZ, A., «Lakatos y la metodología

200

sobre esa base no hay lugar para un debate acerca del realismo de los supuestos, ésta es una

cuestión irrelevante. El empeño de Friedman parece dirigirse a mostrar que, pese a todo, la teoría

posee capacidad explicativa. Pero al defender tan fervientemente la ‘falsedad’ de los supuestos

que la sustentan se produce un hiato entre el nivel micro, es decir, el nivel de las acciones

humanas en las que se basa la teoría y el nivel macro de los fenómenos agregados de mercado.

Así el autor parece ir en contra de los principios del individualismo metodológico, que el mismo

sustenta, donde explicamos lo macro por lo micro, el mercado por los actores, dado que las

acciones de estos son los componentes más simples de los procesos de mercado.

Un análisis del ensayo lleva a concluir que la única forma de hacer coherente la postura

de Friedman está basada en la tesis de la simetría entre explicación y predicción. En la medida

en que ésta se demuestre falsa la postura instrumentalista de Friedman es insostenible.

4. LA LÓGICA DE LA SITUACIÓN.

A estas alturas parece obvio que todo el debate generado a raíz de los supuestos de la

teoría y de la relación de ésta con lo empírico gira en torno al problema de la predicción. Si ésta,

según el instrumentalismo de Friedman, ha de ser el único test relevante para la validación de una

hipótesis hemos de exigir contrastaciones rigurosas de las mismas. Este requisito no es satisfecho

por los autores examinados. La nueva propuesta es que la predicción ha de prohibir algún

acontecimiento observable y la metodología la del falsacionismo.214

CAPÍTULO III

de las ciencias sociales: el caso de la economía», en GONZÁLEZ, W. J., La filosofía de Lakatos: evaluación desus propuestas. Servicio de Publicaciones de la Universidad Nacional a Distancia, 2002.

215 Para una crítica de la metodología popperiana en el ámbito estrictamente económico ver HAUSMAN, D., 1992,Cap. 10. Si M. Blaug se define a sí mismo como un popperiano impenitente, D. Hausman puede ser definidocomo un antipopperiano convencido; también es cierto que las tesis de Popper entran en radical contradiccióncon la visión de la justificación de teorías que el autor, siguiendo a S. Mill, propone. Ver también CALDWELL,B., 1994.

216 Para un análisis completo de la propuesta de Popper respecto a la apropiabilidad del análisis de la lógica dela situación ver GOMEZ RODRIGUEZ, A., Sobre actores y tramoyas. Barcelona, Ed. Anthropos, 1992. Esteapartado estará basado fundamentalmente en dicho análisis.

217 La propuesta de la ‘lógica situacional’ se encuentra diseminada en la mayoría de sus escritos. Comoreferencias fundamentales ver POPPER, K. R., 1987 y 1968; También La Sociedad Abierta y sus Enemigos.Barcelona, Ed. Paidós, 1981; Conocimiento Objetivo . Madrid, Ed. Tecnos, 1982; La Lógica de laInvestigación Científica. Madrid, Ed. Tecnos, 1962.

201

No vamos a dar cuenta aquí de los entresijos del enfoque popperiano, ni de su

rendimiento o falta de él en el ámbito de la economía.215 Lo que nos interesa examinar es la

propuesta metodológica de Popper acerca de la lógica de la situación como método de las

ciencias sociales.216 Esta propuesta es menos conocida que el falsacionismo pero de gran

importancia en el análisis que estamos realizando.217

Popper pretende explicar la acción humana causalmente según el modelo de ley de

cobertura. Para ello necesita una ley universal que de cuenta de la regularidad de las acciones

humanas. Tal ley universal es el principio de racionalidad que Popper formula en los siguientes

términos: «Con esto quiero significar el método de construir un modelo en base a una suposición

de completa racionalidad (y también quizás sobre la suposición de que poseen información

completa) por parte de todos los individuos implicados, y luego de estimar la desviación de la

conducta real de la gente con respecto a la conducta modelo, usando esta última como una

especie de coordenada cero. Un ejemplo de este método es la comparación entre la conducta real

(bajo la influencia de, digamos, prejuicios tradicionales, etc) y la conducta modelo que se habría

CAPÍTULO III

218 POPPER, K., 1987, p. 156. El subrayado es mío.

202

de esperar en base a la ‘pura lógica de la elección’, como descrita por las ecuaciones de la

economía».218

Para Popper la racionalidad, entendida como ley universal no es subjetiva, a la manera de

Mill, sino resultado de la lógica de la situación. Cualquier situación presenta tres aspectos

diferenciados: el mundo físico, el entorno social donde se interactúa con los otros y las

instituciones sociales. Estos elementos tienen un orden determinado que condiciona la acción

individual. Trasladándolo al modelo microeconómico que hemos venido analizando se postula

racionalidad perfecta, en el sentido de elecciones consistentes, información completa y una

previsión total acerca de los futuros eventos económicos. En este modelo, las elecciones

económicas de los agentes vendrán explicadas, y en gran medida determinadas, por las

restricciones de renta.

La generalización acerca del comportamiento racional que propone Popper quedaría

falsada prácticamente a la primera confrontación con la realidad que se produzca, ya que no

siempre los actores actúan de acuerdo a la lógica de la situación, quedando por tanto falsada la

explicación entera. Para resolver este problema Popper vacía el principio de racionalidad de

contenido empírico declarándolo como un principio ideal y por ende falso, pero considerándolo

una buena aproximación a la realidad y que ha de mantenerse a priori. Cuando la explicación

realizada según el modelo es falsada dicha explicación ha de ser reconstruida modificando

elementos de la explicación que tienen que ver con otros aspectos de la situación. Son estos

factores los que pueden ser falsados, nunca el principio de racionalidad. Parece que la

idealización y la falsedad de los supuestos teóricos fundamentales de la microeconomía vuelve

CAPÍTULO III

219 Blaug reconoce que, la primera vez que encontró la crítica del argumento de la lógica situacional, la rechazócon desdén ya que dicho argumento figuraba en la obra La miseria del historicismo, que el propio Popperhabía descrito como una de sus obras más indigestas. BLAUG, M., 1994, p. 113.

220 BLAUG, M., 1994, p. 112.

203

por sus fueros y afecta a un supuesto fundamental de un método que se pretende propio de las

ciencias sociales, no ya sólo de la teoría microeconómica. Pero no podemos menos que

preguntarnos ¿precisamente a manos del impulsor del racionalismo crítico?

El mismo M. Blaug, de forma bastante sorprendente,219 reconoce que el método del

análisis situacional: «1) Contradice su tesis (la de Popper) de la unidad de la ciencia, la doctrina

de que no hay diferencia en la estructura de explicación en las ciencias naturales y sociales y que

todas las ciencias deben validar sus teorías en la misma forma, 2) confirma una particular

estrategia inmunizadora a la luz de la refutación de la racionalidad: retener el principio de

racionalidad y echar la culpa de la refutación a, digamos, las restricciones, la limitada información

disponible a los agentes o cualquier otro rasgo del test en cuestión, 3) y finalmente, la más dañina,

proporciona un argumento inductivo de parte del modelo de conducta de elección racional - que

ha trabajado bien en el pasado así que podría trabajar bien en el futuro».220

Nos interesa fundamentalmente el segundo punto planteado por Blaug. La cuestión es

que la lógica de la situación determina la acción individual pero no de forma completa, dado que

el agente puede apreciar de forma errónea la lógica de la situación, ya sea por prejuicios, creencias

erróneas, falta de información, etc. Esto permite explicar no sólo las acciones racionales, sino

también las irracionales, las que no se adecuan a esa lógica, sin tener que considerar al individuo

como irracional. Si a unos precios determinados, con una oferta de bienes específica y una

dotación presupuestaria dada el individuo elige x cuando, según la teoría, tenía que haber elegido

CAPÍTULO III

221 GOMEZ RODRÍGUEZ, A., 1992, p. 85. Subrayado en el original.

204

y (porque cualquier individuo en esa situación determinada, ineludiblemente tenía que haber

elegido y) se reconstruye la explicación de forma que pueda darse cuenta de la acción del sujeto

en función, bien de restricciones externas, bien de apreciaciones erróneas de la situación. Lo cual

protege a la teoría de cualquier intento de refutación, añadiendo hipótesis ad hoc que no añaden

contenido empírico a la teoría.

Popper se ve atrapado entre la necesidad de explicar la acción causalmente, bajo el

modelo nomológico deductivo, y la patente invalidez del principio de racionalidad perfecta que

puede explicar, como mucho, una parte muy reducida de las acciones humanas. Eso le lleva a

vaciar el principio de contenido empírico. Pero tal y como afirma A. Gómez: «Si las desviaciones

del principio de racionalidad pueden ser explicadas como resultado de un agente racional (tal

como el mismo Popper afirma) es en términos de la racionalidad imperfecta del actor que han

de ser explicadas. No parece tener mucho sentido seguir manteniendo como principio

explicativo un criterio de racionalidad objetivo y falso. (...) La solución a los problemas (...) no

pasa, entonces, por admitir tales problemas formulando un principio ideal que los evite a costa

de vaciarse de contenido empírico y capacidad explicativa. Parece más adecuado intentar

solucionarlos desde la formulación de una ley empírica acorde con la práctica efectiva de los

actores, no la idea de agentes máximamente racionales».221 Con esta propuesta volvemos

nuevamente a la necesidad, ya planteada por T. Hutchison, de dotar de contenido empírico a los

supuestos de la teoría económica si realmente queremos que tengan capacidad explicativa y

predictiva.

La misma autora continua afirmando que el principio de racionalidad de Popper sólo es

CAPÍTULO III

222 Ibídem, p. 85.

223 LAKATOS, I., en LAKATOS, I. y MUSGRAVE, A., (Eds.), 1975 y LAKATOS, I. 1989.

205

válido como generalización normativa de la conducta.222 Como tal es evidente que no necesita

de contenido empírico en absoluto. Pero para el tema que nos ocupa, el análisis de los supuestos

de la teoría del comportamiento del consumidor, es tanto como decir, que su fundamentación

está basada en una norma de conducta. Los individuos deben ser maximizadores de la utilidad

porque eso les proporciona el mejor resultado económico, siendo la explicación deudora de lo

que consideremos ‘mejor’.

La salida a las contradicciones que plantea la aplicación de la lógica de la situación al

análisis económico junto con la pretensión de mantener una actitud crítica ante el conocimiento

científico puede ser encontrada, tal como postula Blaug, a través de la propuesta de I. Lakatos,

manteniendo el principio de racionalidad como el núcleo duro de un programa de investigación

científico.

5. NÚCLEOS Y HEURÍSTICAS.

La filosofía de la ciencia de I. Lakatos223 ha gozado de considerable ascendiente entre los

economistas dado que parece reflejar de forma bastante aproximada la práctica real de la

disciplina.

Con Lakatos se produce un cambio fundamental de perspectiva respecto a las ideas

metodológicas dominantes en el sentido de que la ciencia en general, ya no es entendida como

una serie de teorías aisladas sino como conjuntos o sucesiones de teorías. Esta sucesión de

teorías, en el sentido de que cada una de ellas es estimada en relación a su predecesora, suele

CAPÍTULO III

224 LAKATOS, I., 1975, p. 230.

225 Más adelante prestaremos oídos a algunas voces que afirman que las categorías lakatosianas son demasiadosrígidas para ser de alguna utilidad en la evaluación metodológica de la economía

226 Una anécdota narrada por A. Barceló sirve para reforzar esta observación un tanto irónica. La anécdota lesucedió a Charles Kindleberger. «Un día en un almuerzo en el Club de la Facultad del MIT (MassachussettsInstitute of Technology), hace pocos años, un joven colega solicitó delante mío a otro colega de más edad quele ayudara a encontrar algún uso para un modelo interesante que acababa de desarrollar. Y añadía nuestroautor: Cuando relato este suceso ante economistas provoco por lo general una risa nerviosa». BARCELO, A.,Filosofía de la economía: leyes, teorías y modelos. Barcelona, Ed. Icaria, 1992, p. 108.

206

estar caracterizada por cierta continuidad en sus elementos a partir de un Programa de

Investigación Científico (PIC).224

Los elementos fundamentales de un PIC son: el núcleo duro, un conjunto de heurísticas

y el cinturón protector de supuestos e hipótesis auxiliares. En el núcleo se encuentran las leyes

fundamentales de la teoría, estas son infalsables por decisión metodológica de los científicos que

trabajan en el programa de investigación. A modo de ejemplo podemos señalar que el núcleo del

programa de investigación newtoniano estaba conformado por las tres leyes de la dinámica de

Newton y la ley de la gravitación universal. Dentro del conjunto de heurísticas está, por un lado,

la heurística negativa, que especifica qué parte del núcleo es irrefutable y la heurística positiva,

que es un conjunto de instrucciones y sugerencias de investigación respecto a la parte refutable

del programa de investigación, su cinturón protector, compuesto de hipótesis auxiliares que son

las que han de resistir el peso de la contrastación, ajustándose y reajustándose de forma que el

núcleo no quede nunca afectado por algún falsador potencial. Parece obvio que este esquema se

presenta como indudablemente atractivo225 a los practicantes de una disciplina preocupados

fundamentalmente por el desarrollo de las implicaciones teóricas de modelos construidos sin

mucha preocupación por el contenido empírico de sus supuestos.226

Por otro lado, este esquema puede dar cuenta de la consideración popperiana del principio

CAPÍTULO III

227 BLAUG, M., 1975, p. 412.

207

de racionalidad como un principio que no puede ser falsado, recayendo la falsación en los

factores objetivos que definen la lógica de la situación, lo que sería en la terminología de Lakatos

el cinturón protector. Igualmente, la misma afirmación metodológica popperiana que prohíbe

falsar el principio de racionalidad se constituiría como la heurística negativa del programa. Pero

si aplicamos esto a la teoría del comportamiento del consumidor, como un subprograma de la

teoría económica neoclásica, no la hemos salvado aún de la acusación de utilizar una estrategia

inmunizadora. En este caso la respuesta de M. Blaug es: «El núcleo duro, o parte metafísica de

este programa, consiste en una versión débil de lo que es, por otro lado bien conocido, como los

supuestos de la teoría competitiva, es decir, cálculo económico racional, gustos constantes,

independencia de toma de decisiones, conocimiento perfecto, certidumbre perfecta, movilidad

perfecta de factores, etc. Si no son establecidos débilmente se convierten en refutables por

inspección casual y no pueden por tanto ser sostenidos como verdades a priori».227 De lo cual

parece inferirse, porque Blaug no lo aclara, que siendo sostenidos débilmente no son sometidos

a inspección casual o no son refutables. El problema en esta ‘reconstrucción’ es que ubica dentro

del núcleo lo que podrían ser consideradas cláusulas ceteris paribus, como la constancia de

gustos o la no interdependencia de las decisiones y no habla para nada de las leyes fundamentales

que se supone contenidas en dicho núcleo. Por otro lado, si vamos a considerar a la teoría

microeconómica neoclásica como un programa de investigación en el que ha habido una

sucesión de teorías, donde cada una de ellas explica las anomalías de la anterior y algún hecho

nuevo, según el criterio de progreso científico sostenido por Lakatos, parece obvio que las

propuestas teóricas que tratan la incertidumbre o la interrelación con los otros deben ser

CAPÍTULO III

228 BACKHOUSE, R., Explorations in Economic Methodology. Londres, Ed. Routledge, 1998, pp.13-38.

229 WEINTRAUB, E., General Equilibrium Analysis: Sudies in Appraisal. Cambridge, Ed. Cambridge UniversityPress, 1985.

208

incluidas.

R. Backhouse228 partiendo de la reconstrucción que hace Weintraub229 del programa de

investigación neowalrasiano, propone una reconstrucción diferente:

ND1: Existen agentes económicos.

ND2: Los agentes tienen preferencias sobre los resultados.

ND3: Los agentes, independientemente, optimizan sujetos a restricciones.

ND4: Las elecciones son hechas en mercados interrelacionados.

HP1: Construir modelos consistentes, plenamente especificados, simplificando donde sea

necesario y extraer solamente aquellas conclusiones que puede ser probado que son

implicadas por el modelo.

HP2: Especificar en los modelos particulares los significados de equilibrio y desequilibrio

y analizar el modelo en esos términos.

HP3: Construir teorías en las cuales los agentes optimizan sujetos a restricciones.

HP4: Especificar las reglas que gobiernan la interacción entre los agentes.

HP5: Construir teorías en las cuales los agentes tienen un conjunto de información bien

definido acerca de los fenómenos relevantes.

HN1: No construir teorías en las cuales la conducta irracional juegue algún papel.

HN2: No construir teorías en las cuales el equilibrio no tenga significado.

HN3: No someter a comprobación las proposiciones del núcleo duro.

CAPÍTULO III

230 «Dada la variedad de proposiciones que podrían entrar en el núcleo duro de un programa de investigación yla diversidad de las sugerencias que constituyen la heurística positiva, uno escasamente enriquece ladescripción de empresas como la microeconomía aplicando las categorías de Lakatos. (...) Segundo, no estáclaro cómo adecuar la economía en las categorías de Lakatos». HAUSMAN, D., 1992, p. 87. «este programa,sin embargo (se refiere a la reconstrucción de Weintraub), es definido por supuestos y heurísticas que sonfundamentalmente metodológicas (compromisos con la conducta racional y uso de modelos de optimización),con el resultado de que su núcleo duro tiene poco contenido económico» BACKHOUSE, R., 1994, p. 176.

209

Tampoco en el caso de Backhouse es especificado el status que tienen las proposiciones

incluidas en el núcleo duro. En el mejor de los casos la afirmación de que los agentes optimizan

sujetos a restricciones puede constituir una ley fundamental, pero en este caso llama la atención

el escaso contenido económico de la ley y del núcleo duro en general. Esta reconstrucción sería

válida tanto para la teoría del comportamiento del consumidor, analizada en el capítulo primero,

como para la teoría de la elección social, analizada en el capítulo segundo, pero evidentemente

no son la misma teoría, o, como hipótesis tentativa, son la misma teoría con distinto dominio de

aplicación, lo cual debería, en principio ser especificado en la reconstrucción.

Tanto Backhouse como Hausman hacen incidir sus críticas precisamente en el escaso

contenido económico de las distintas reconstrucciones propuestas en Economía,230 esto deja sin

resolver algunas cuestiones fundamentales. Según Backhouse, parte de los problemas pueden

obedecer a que la definición de un programa en términos de núcleos duros inmutables es

demasiado rígida para ser aplicada correctamente en economía.

La falta de precisión, básicamente porque los distintos autores no coinciden y lo que unos

establecen como proposiciones del núcleo duro otros las proponen como heurísticas, presenta

dos problemas fundamentales.

a) En primer lugar, existen dificultades para dar cuenta del solapamiento entre distintos

CAPÍTULO III

231 BACKHOUSE, R., 1998, pp. 41-43.

232 Por ejemplo, el concepto de equilibrio general puede ser visto como componente de varios subprogramas deinvestigación, pero tal y como afirma Backhouse en los distintos programas reconstruidos juega papelesdiferentes, unas veces forma parte de la heurística negativa y otros de la positiva. Ver BACKHOUSE, R., 1998,p. 43.

210

programas de investigación. En el ejemplo propuesto por Backhouse,231 si definimos el programa

neowalrasiano en función de, básicamente, conductas optimizadoras y la construcción de

modelos consistentes plenamente especificados, no podríamos incluir a la Escuela de Chicago,

con M. Friedman a la cabeza, dentro de este programa, dada su aversión a la construcción de

modelos formales. El problema radica en que el núcleo duro está regido por consideraciones

metodológicas y prácticamente desprovisto de contenido económico. Ello dificulta, de manera

considerable, establecer las relaciones entre distintos programas de investigación, o distintos

subprogramas dentro de cada PIC. Básicamente es el mismo problema al que nos enfrentamos

al intentar establecer las relaciones entre la teoría del comportamiento de consumidor y la teoría

de la elección social, tal como se señaló más arriba. Un PIC viene definido por su núcleo duro y

éste a su vez está constituido por las leyes fundamentales y los principios metafísicos que

comparten los miembros de la comunidad, pero en el caso de la economía parece estar

constituido únicamente por los supuestos metafísicos, dado que no está claro el rango de los

supuestos. ¿Es esto suficiente? Aún en el caso de que la respuesta fuera afirmativa debería existir

un consenso acerca de cuáles son esos supuestos fundamentales y dónde los ubicamos.232 Pero,

precisamente, la razón fundamental parece ser que, la única forma de reconstruir el núcleo duro

de la mayoría de los programas en economía, es debilitándolo considerablemente, y ello es

debido a la proliferación de modelos alternativos que hace que el acuerdo sobre las proposiciones

fundamentales sea extremadamente pequeño.

CAPÍTULO III

233 Al menos su parte microeconómica que es la que actúa como fundamentación del resto.

211

b) El segundo problema en relación a la identificación del núcleo duro es su inmutabilidad

a lo largo del desarrollo del programa. Si establecemos, muy grosso modo, el nacimiento del

programa neoclásico233 a partir de 1870 con la revolución marginalista nos encontramos con que,

prácticamente hasta la década de los 50 del S.XX, los problemas relacionados con la información

disponible a los agentes no tenían cabida dentro de este programa. Pero a partir de entonces se

produce un desarrollo teórico, el cual puede ser planteado como complementario de la teoría o

resolviendo sus anomalías, que trata las decisiones de los agentes en presencia de riesgo e

incertidumbre. Si situamos la proposición que afirma que los agentes tienen conocimiento

perfecto y que existe certidumbre perfecta, dentro del núcleo duro, tal como hace Blaug, las

propuestas de la teoría de la utilidad esperada se constituirían como un programa alternativo, ya

que presentaría un núcleo duro distinto. Parece claro que esto no es así, que la teoría de la

utilidad esperada formaría parte del mismo programa que la teoría microeconómica neoclásica,

pero esto entraría en contradicción con la reconstrucción propuesta. Lo mismo puede ser

afirmado de los desarrollos propuestos por la teoría de juegos en relación al supuesto de la no

interdependencia en las decisiones de los agentes.

A esta dificultad en la precisión del núcleo subyace igualmente la falta de acuerdo entre

los teóricos acerca de cuáles son los supuestos fundamentales de la teoría microeconómica y cuál

es su status tanto lógico como metodológico. Lo único que pervive, como principio metafísico

fundamental, es que los agentes maximizan sujetos a restricciones, lo cual parece poco

informativo a la hora de dar cuenta de una teoría que lleva vigente más de un siglo.

CAPÍTULO III

234 HAUSMAN, D., 1992, p. 1.

235 Ver fundamentalmente SUPPES, P. Introduction to Logic, Nueva York, Ed.Van Nostrand, 1957, SNEED, J. TheLogical Structure of Mathematical Physics. Dordrecht, Ed. Reidel, 1971, STEGMULLER, W. La concepciónestructuralista de las teorías. Madrid, Ed. Alianza Universidad, 1981, Estructura y dinámica de teorías.Barcelona, Ed. Ariel, 1983 y GIERE, R., 1984.

212

6. LA ECONOMÍA COMO UNA CIENCIA INEXACTA Y AUTÓNOMA. VOLVIENDO A J. S. MILL.

A lo largo de las páginas precedentes hemos podido observar que en Economía los viejos

principios metodológicos nunca mueren, van reapareciendo a lo largo de la historia de la

disciplina muchas veces en sistemas que se tornan incoherentes con su inclusión. Parece algo

inherente a la metodología de la economía un cierto eclecticismo. No es de extrañar pues que

cerremos este breve recorrido con un examen de la postura de D. Hausman, que parece combinar

el método milliano a priori con las propuestas de la concepción semántica.

D. Hausman comienza su libro The Inexact and Separate Science of Economics

afirmando: «Este libro defiende la visión pasada de moda que los axiomas básicos de la

Economía son inexactos y que la Economía procede deduciendo las consecuencias de esos

axiomas en circunstancias particulares. El método de la Economía es deductivo y la confianza

en las implicaciones de la Economía deriva de la confianza en sus axiomas más bien que de la

comprobación de sus implicaciones». 234 Al igual que Mill, el autor propone la existencia de, por

un lado, leyes universales de la naturaleza humana, siendo una de ellas, por ejemplo, que los

hombres prefieren más riqueza a menos, y por otro, la existencia de generalizaciones empíricas,

como las relativas a la oferta y la demanda que estarán basadas deductivamente en esas leyes

fundamentales.Por otro lado la visión de Hausman está tomada de las concepciones semánticas235

CAPÍTULO III

236 Dado que la concepción estructuralista, como parte de las concepciones semánticas, será explicada enprofundidad en el próximo capítulo no nos detendremos aquí en su exposicìón, ni en la medida en queHausman se aproxima o se aleja de ellas.

237 HAUSMAN, D., 1992, fundamentalmente el capítulo V.

213

aunque con algunas modificaciones.236

Básicamente toma de la concepción semántica la visión modelística de las teorías. Para

Hausman, y esto es lo que nos interesa básicamente de este autor en este punto, los modelos

están constituidos como conjuntos de supuestos, siendo estos meramente definiciones. En este

conjunto de supuestos incluiríamos la transitividad, completud y continuidad de la ordenación

de preferencias, la infinita divisibilidad de las mercancías, la concavidad y diferenciabilidad de

la función de utilidad, etc. La evaluación de estos modelos es matemática o conceptual, no

empírica, dado que cuando se construye un modelo no se está afirmando nada del mundo,

sencillamente se está dando una definición y, por tanto son trivialmente verdaderos o ni

verdaderos ni falsos. Su finalidad es la exploración conceptual. Es cuando añadimos una

hipótesis teórica cuando convertimos el modelo en una teoría, compuesta de un conjunto de

afirmaciones y, por tanto, evaluable empíricamente. Su finalidad ya no será la exploración

conceptual sino el realizar afirmaciones acerca del mundo. Si los modelos son definiciones de

predicados, las teorías son conjuntos de afirmaciones legaliformes. La hipótesis teórica ‘cierra’

los supuestos del modelo al especificar el dominio empírico en que el modelo es aplicado.237

Lo que nos interesa ahora es examinar el conjunto de leyes que Hausman propone para

la teoría microeconómica neoclásica, o lo que es lo mismo, lo que aquí ha venido siendo

denominado teoría del comportamiento del consumidor. Estas generalizaciones afirman:

- Ley de Racionalidad: los individuos son maximizadores de utilidad sujetos a las restricciones

CAPÍTULO III

238 HAUSMAN, D., 1992, p. 136.

214

habituales.

- Ley de Consumismo: los individuos siempre preferirán aquella cesta de bienes que contenga,

por lo menos, más de uno de los artículos, siendo las funciones de utilidad individuales

independientes entre sí.

- Ley de tasas de sustitución marginal decreciente: la utilidad del individuo aumenta con

incrementos en las unidades de cualquier bien, pero con una tasa de aumento decreciente.

Estas son leyes universales de la naturaleza humana a partir de las cuales podemos derivar

deductivamente las generalizaciones concernientes a la oferta y la demanda, las cuales serían

leyes empíricas. No es tarea de la economía el intentar explicar sus leyes fundamentales, éstas

son generalizaciones que son evidentes a la introspección o a la experiencia cotidiana. La tarea

de los economistas es aplicar los principios básicos a problemas particulares.

Pero estas leyes, aunque universales, no son estrictas. Esto es una característica

epistémica: en general, todas las leyes son estrictas, pero no conocemos todos los factores que

interfieren en el cumplimiento de la ley. Una vez que progrese nuestro conocimiento y podamos

especificar todos los factores interferidores relevantes y añadirlos al antecedente, la ley se tornará

estricta. «Al comprometerse uno mismo con una ley cualificada con una cláusula ceteris paribus,

uno imagina que la imprecisión en la extensión del predicado que se está distinguiendo

disminuirá sin límite tanto como el conocimiento científico de uno se incremente».238

En principio, la inclusión de la cláusula ceteris paribus evita cualquier posibilidad de

falsación de dichas leyes, ya que los factores que interfieren están excluidos por la cláusula

ceteris paribus. Para que dichas cláusulas no trivialicen las leyes, Hausman propone cuatro

CAPÍTULO III

239 Ibídem, p. 140.

215

condiciones que han de ser cumplidas para que las generalizaciones cualificadas mediante

cláusulas ceteris paribus puedan ser consideradas leyes. Estas condiciones son: legaliformidad,

confiabilidad, refinabilidad y excusabilidad.

Por la primera debe ser el tipo de afirmación que, en caso de ser verdadera, sería una ley.

Reconocerla o no es una cuestión pragmática, todo lo que indica es que «científicos y gente de

leyes son normalmente capaces de distinguir de forma no controvertida los argumentos legales

de los no legales».239

La segunda condición exige que la ley se cumpla en la mayoría de los casos, siendo esta

mayoría determinada por procedimientos estadísticos de muestreo. Al mismo tiempo, se exige

que sea especificado el dominio de aplicaciones de la generalización, definido como la clase de

casos en los cuales la generalización sería confiable. La cuestión aquí es qué tamaño ha de tener

la muestra y qué frecuencia se debe cumplir para poder declarar la generalización confiable, cosa

que desgraciadamente no especifica.

En tercer lugar, la cualificación no ha de ser ad hoc, aunque reconoce que no es fácil

caracterizar en general que modificaciones teóricas son ad hoc y cuáles no.

Finalmente, uno debe estar de alguna manera justificado en invocar la cláusula ceteris

paribus. Los factores que intervienen y se invocan, deben ser factores que conecten causalmente,

el factor citado que interfiere y el fracaso de la generalización.

Veamos un ejemplo de cuáles serían los factores incluidos en la cláusula ceteris paribus.

Los individuos maximizan su utilidad sujetos a las restricciones presupuestarias pertinentes

ceteris paribus, es decir los individuos tienen una ordenación de preferencias reflexiva, transitiva,

CAPÍTULO III

240 Ver capítulo 5, § 2.1.1.

216

completa y convexa, los gustos no cambian en el tiempo y el individuo recolecta la cantidad

óptima de información de cara a elegir la mejor opción. Los factores causalmente relacionados

con la generalización son las preferencias y las creencias de los agentes. En cuanto a la primera

de las condiciones exigidas habría que recurrir al criterio de un científico o un hombre de leyes

para saber si la generalización ‘todos los individuos maximizan su utilidad sujetos a restricciones’

en caso de ser verdadero sería una ley. En cuanto a la segunda, es decir, que la afirmación sea

verdadera en la mayoría de los casos, aparte de las dificultades en establecer el tamaño de la

muestra y la frecuencia en la generalización nos encontramos con multitud de fenómenos como

la ‘inversión de preferencias’ (preference reversal) o las paradojas que se suscitan en la teoría

de la utilidad esperada que indican precisamente lo contrario,240 que la generalización sólo se

cumple en casos altamente estereotipados, con información perfecta y ausencia de incertidumbre,

lo cual no es la característica fundamental de las elecciones individuales en el terreno económico.

En tercer lugar se exige que las cualificaciones no sean ad hoc, pero no caracteriza que

modificación teórica es ad hoc y cuál no lo es. ¿Ha de existir, por ejemplo, progreso teórico o

progreso empírico a la manera de Lakatos?

En último lugar tenemos la exigencia de la conexión causal entre el factor perturbador y

el fracaso de la generalización, en este caso, entre creencias y preferencias individuales y el acto

de elección, un campo que la teoría económica considera como dado, no un campo de estudio

donde se pueda precisar la interacción de creencias y preferencias y cómo éstas responden a los

axiomas señalados, con el fin de especificar, ya que no eliminar, la cláusula ceteris paribus.

Precisamente en estos términos da cuenta A. Rosenberg de la ineliminabilidad de estas cláusulas

CAPÍTULO III

241 ROSENBERG, A., Economics Mathematical Politics or Science of Diminishing Returns? Chicago, Ed.University of Chicago Press, 1992, p. 149.

217

como una imposibilidad por parte de los economistas, y esta imposibilidad es debida

fundamentalmente a la naturaleza de las variables explicativas: « ... tenemos una explicación de

por qué los supuestos de la teoría económica acerca de la acción individual no han sido

mejorados, corregidos, agudizados, especificados o condicionados de forma que mejoren el

poder predictivo de la teoría. Ninguna de estas cosas ha sido hecha por los economistas porque

no pueden hacerlas. La naturaleza intencional de las variables explicativas fundamentales de la

teoría económica prohíbe tales mejoras».241 En este sentido habría que recurrir a investigaciones

en otras áreas como la psicología o la biología, pero al hacer esto la economía pierde uno de sus

rasgo metodológicos más alabados, la sencillez, la capacidad de predicciones significativas a

partir de un rango relativamente pequeño de supuestos, en este sentido no serían las variables

explicativas de la teoría la que prohibirían tales mejoras, sino las concepciones que acerca de la

teoría económica tienen los economistas. Por otro lado, los supuestos, tal y como han venido

siendo expuestos, tienen un virtud adicional y es que confieren a la teoría tratabilidad matemática,

la cual probablemente se perdería en el transcurso de las investigaciones acerca de las

preferencias y las creencias de los agentes. La tratabilidad matemática es un valor metodológico

deseable en la mayoría de las comunidades científicas, siempre y cuando no se llegue al extremo

de subordinar la teoría a la aplicación del instrumental matemático.

Si se quiere seguir manteniendo la maximización de la utilidad como una generalización

explicativa de la conducta humana habría que, en primer lugar, y en eso estamos de acuerdo con

Hausman, especificar el dominio de aplicaciones en la cual la generalización sea verdadera. Por

CAPÍTULO III

218

ejemplo, y aunque parezca trivial, una situación en la que el agente se ve conminado a elegir una

opción porque no hay otra disponible, sería un dominio donde la generalización se cumple,

aunque esto ponga en juego el término elección que conlleva en su significado la existencia de

más de una alternativa. Otro ejemplo de dominio podría ser aquel donde el agente tiene plena

información y no existe incertidumbre. Aunque es más probable que muchas de nuestras

elecciones cotidianas sean más un reflejo del primer ejemplo de dominio que del segundo. En

presencia de incertidumbre especificar el dominio en mucho más complicado ya que, como

veremos en el capítulo cinco, las violaciones de los principios de la teoría de la utilidad esperada

son frecuentes. Pero si es posible especificar esas violaciones en una cláusula ceteris paribus que

nos informe de cuándo los individuos no seguirán los postulados de la teoría y por qué,

habremos ganado mucho en la comprensión de las elecciones humanas y en la potencia

predictiva de la teoría, aunque de forma inevitable es posible que perdamos en sencillez y

tratabilidad matemática, dos de los desiderata metodológicos en los que más énfasis ponen los

teóricos a la hora de defender los supuestos conductuales de la teoría microeconómica.

Por tanto, creemos que mantener el principio de maximización de la utilidad pasa tanto

por un cambio en los valores metodológicos de la disciplina como por un mayor énfasis en los

estudios empíricos acerca de las elecciones provengan estos de la Economía, la Psicología o la

Sociología.

CAPÍTULO III

242 Esta es la postura sostenida por el autor en SIMON, H., 1957, p. 243.

219

* * *

Ha sido un largo recorrido por la metodología de la economía de más de un siglo. Los

supuestos fundamentales de la teoría comienzan siendo leyes fundamentales de la mente y

acaban como leyes universales no estrictas, pasando por principios ideales y núcleo duro de un

programa de investigación científica. Lo que es común a todas las propuestas analizadas es que

los supuestos conductuales que fundamentan la teoría del comportamiento del consumidor son

establecidos como proposiciones con escaso contenido empírico. El esfuerzo de los autores

parece centrarse en justificar este hecho dadas las dificultades para someterlos a contrastación.

Las únicas excepciones a esta postura, dentro de los autores tratados, parecen constituirla

T. W. Hutchison y H. Simon. Pero el primero, acusado por muchos de ultraempirista, tampoco

especifica como otorgar contenido empírico a los supuestos, salvo por vía de especificación de

las cláusulas ceteris paribus. Pero esto, como señala D. Hausman presenta dificultades. En lo

que se refiere a H. Simon no queda claro si su propuesta de racionalidad limitada se constituye

como una teoría alternativa o las limitadas capacidades computacionales de los seres humanos

son postuladas como una restricción. Una limitación más que actúa sobre el sujeto a la hora de

realizar la elección pero que, a diferencia de las restricciones presupuestarias e informacionales,

las cuales son externas al agente, sería una restricción interna.242 Pero el postulado de

maximización es, en última instancia retenido aunque, en este caso, como un principio a

complementar.

Por nuestra parte, y de acuerdo con estos dos autores, creemos que si los supuestos

conductuales de la teoría del comportamiento del consumidor van a ser exportados a otras áreas

CAPÍTULO III

220

de estudio como la elección social o la elección política, donde no sólo interesa predecir las

elecciones de los agentes sino explicar por qué eligen lo que eligen, y en función de ello

establecer políticas de bienestar, la cuestión del contenido empírico de estos principios es clave.

Sin ello el poder explicativo de estas teorías es nulo o escaso y su lugar como fundamento de las

decisiones políticas es seriamente cuestionado ya que, en qué se basan los políticos del bienestar

sin tan siquiera somos capaces de comprender o explicar la realidad con la que se está operando

políticamente. Cómo saber qué distribución beneficia a los individuos si no sabemos cuáles son

sus necesidades o sus deseos. El éxito predictivo no es significativo cuando además es escaso.

Es necesaria un teoría que además explique, y que explique lo macro por lo micro, es decir los

fenómenos de agregado ya sean políticos, sociológicos o económicos en función de las

elecciones de los agentes y éstas en función de sus preferencias y creencias reales.

La investigación de los supuestos es fundamental dado que estos nos proporcionarían el

mecanismo causal que liga los fenómenos agregados de mercado, establecidos en términos de

intercambio de bienes, a las elecciones de los actores. Son estas elecciones, y en última instancia

las preferencias de los agentes, las que explican cambios en los precios o variaciones en la

demanda, son también las que determinan qué cantidades de bienes serán producidos, cómo y

a qué precio. En la medida en que este mecanismo causal pueda ser establecido con precisión nos

proporcionaría la explicación para otros fenómenos agregados en otros campos como las

elecciones políticas, la asignación de bienes públicos o la distribución y redistribución de la renta.

Puede ser afirmado que el contenido empírico de la teoría es puesto seriamente en duda

desde cualquiera de las concepciones metodológicas desde la que nos aproximemos. Su

capacidad predictiva es básicamente cualitativa, en el sentido de predecir las direcciones del

CAPÍTULO III

221

cambio de las variables endógenas sin especificar la magnitud numérica de ese cambio. Lo cual,

aunque significativo, no justifica la confianza desmedida en sus axiomas. En cuanto a su

capacidad explicativa queda seriamente dañada cuando no es posible especificar el mecanismo

que liga los fenómenos de mercado o los fenómenos políticos a las conductas individuales de los

agentes. No se está afirmando que la teoría no tenga capacidad explicativa o predictiva. Es

posible que muchos de los fenómenos de la vida económica puedan ser explicados en base a que

los hombres prefieren más riqueza a menos riqueza, parafraseando a Mill. Muchos, pero no todos

los fenómenos económicos podrán ser fundamentados en este principio, en esta medida es

entonces fundamental, determinar su alcance para poder evaluar la teoría y para ello es necesario

mucho más estudio empírico de lo que la profesión económica parece dispuesta a realizar.

A partir de las propuestas de los distintos autores una solución tentativa para dar cuenta

de las relaciones interteóricas entre la teoría del comportamiento del consumidor y la de la

elección social, es considerarlas como subprogramas o como componentes de un mismo

programa de investigación científica, en el sentido propuesto por Lakatos, ya que ambas teorías

compartirían el mismo núcleo duro. Pero dado que las reconstrucciones propuestas son

básicamente metodológicas poco más que esto podría ser afirmado. Quedarían sin respuesta

cuestiones que consideramos fundamentales, como por ejemplo el status del término utilidad y

en caso de tenerla su contrapartida empírica, dónde situar el principio de utilidad marginal

decreciente, fundamental para algunas teorizaciones especialmente en el ámbito de la elección

social, o las relaciones de la teoría de la utilidad esperada con la teoría del comportamiento del

consumidor. La primera es más restrictiva en sus condiciones que la segunda, pero la idea es que

pertenecen al mismo PIC. Habrá casos donde las restricciones son pertinentes y habrá casos en

CAPÍTULO III

222

que no, pero las reconstrucciones lakatosianas no nos permiten dar cuenta de esa diferencia.

Por otro lado, y en sintonía con las propuestas de Lakatos, creemos que la mejor opción

para establecer las relaciones entre las distintas teorías en juego es una reconstrucción de las

mismas. Este planteamiento nos ha conducido a la concepción estructural y la reconstrucción

teórica será el objetivo del próximo capítulo.

CAPÍTULO IV

243 J. Echeverría señala hasta diez nuevos puntos de atención en el estudio de la ciencia frente al análisispositivista de la Concepción Heredada. ECHEVERRIA, J., Akal, 1995, pp. 40-41.

244 Como obras representativas de cada uno de ellos pueden citarse: KUHN, T. S., La estructura de las revolucionescientíficas. México, Ed. Fondo de Cultura Económica, 1975. LAUDAN, L. El progreso y sus problemas.Madrid, Ed. Encuentro, 1977. TOULMIN, S., An Inquiry into the Aims of Science, Indiana University Press,Bloomington, 1961. FEYERABEND, P. K., Against Method. Londres, New Left Book, 1975. HANSON, N. R.,Patterns of Disvovery. Cambridge, Cambridge University Press, 1958.

224

Capítulo IV.

Aproximación Metateórica.

1. INTRODUCCIÓN.

A la concepción enunciativa o sintáctica de las teorías mantenida por la Concepción

Heredada le sucede en filosofía de la ciencia una visión post-positivista que hace hincapié en los

aspectos diacrónicos del conocimiento científico, en la importancia del contexto de

descubrimiento, frente al de justificación, y en los aspectos sociales de la práctica científica.243

Autores como Kuhn, Lakatos, Laudan, Toulmin, Feyerabend o Hanson 244 son los que toman el

relevo en la nueva filosofía de la ciencia. Las nuevas propuestas no prestan atención a la

reconstrucción formal de las teorías dado que atienden más a los factores contextuales, para ellos

CAPÍTULO IV

245 McKINSEY, J. C., SUPPES, P. y SUGAR, A., «Axiomatic Foundations of Classical Particle Mechanics». Journalof Rational Mechanics and Analysis, 2, pp. 273-289.

225

las reconstrucciones de las teorías no pueden llevarse a cabo con independencia de esos factores.

Por otro lado, la reconstrucción estrictamente lógica por la que abogaba la Concepción Heredada,

considerando a las teorías como conjuntos de enunciados axiomatizados formalmente con lógica

de primer orden, ya había sido sometida a crítica. Especialmente porque no da cuenta de teorías,

consideradas científicas, como las de la biología o las ciencias sociales, y porque tampoco

permitía axiomatizar teorías probabilitarias. Aquellas que conseguía reconstruir formalmente,

como la Mecánica Clásica, tenían como resultado productos poco manejables.

Habrá que esperar al estructuralismo para contar nuevamente con un estudio formal de

las teorías, su estructura y naturaleza y ello incorporando elementos importantes del análisis de

Kuhn. La nueva axiomatización de las teorías esta muy lejos de la axiomatización estándar ya

que se basa en los recursos de la teoría de conjuntos. Es una axiomatización informal, presentada

en lenguaje natural, mediante la introducción de un predicado conjuntista. La reconstrucción de

una teoría se hace presentando el conjunto de sus modelos.

El análisis de las teorías se realiza mediante axiomatización conjuntista (que como se sabe

proviene del trabajo de Bourbaki y su extensión a las ciencias empíricas por Suppes a comienzos

de los años 50) consiste, desde el punto de vista lógico-matemático, en definir un predicado

mediante nociones conjuntistas.245 La razón de que esta definición se vea como axiomatización

no es difícil de entender. Se trata de que la extensión del predicado en cuestión sea la clase de los

CAPÍTULO IV

246 Algunas referencias en orden aproximado de dificultad creciente son las de MOULINES, C. U., 1982.STEGMÚLLER, W., 1983. BALZER, W., MOULINES, U., y SNEED, J., An Arquitectonic for Science. Dordrecht, Ed.Reidel Publishing Company, 1987.

226

modelos de la teoría.246 Si tenemos modelos que satisfagan un predicado conjuntista S, el

conjunto de modelos de S, formado por M, Mp y Mpp, es decir, el núcleo estructural, debe ser

completado con la especificación de constricciones o condiciones de ligadura que afectan a las

funciones teóricas en las aplicaciones efectivas de la teoría.

No vamos a dar cuenta en profundidad de toda la complejidad que brinda la concepción

estructural, lo que pretendemos es utilizarla para analizar la teoría del comportamiento del

consumidor (TCC) y la teoría de la elección social (TES) mediante una reconstrucción de las

mismas. Por ello expondremos en primer lugar las nociones básicas del análisis estructural de las

teorías para, seguidamente, pasar a la reconstrucción de la TCC. Esto nos permitirá, mediante la

noción de relación interteórica de especialización, dar cuenta de las relaciones entre la TCC y la

TES. Por otro lado, esta propuesta nos permite avanzar algunas respuestas acerca de las

cuestiones planteadas en el último capítulo, especialmente en lo que se refiere al status del

término utilidad y su relación con ambas teorías. Esta clarificación posibilitará, ya en el capítulo

final, dar cuenta de la problemática asociada al contenido empírico de la teoría que ha venido

siendo analizada a partir del capítulo anterior.

2. LAS TEORÍAS COMO CLASES DE MODELOS.

Toda teoría consta de un núcleo donde está su parte formal, sus leyes, conceptos y

restricciones y una parte aplicativa, donde se especifican los fenómenos de los que pretende dar

cuenta. A su vez, el núcleo cuenta con distintos elementos. Para su exposición utilizaremos el

CAPÍTULO IV

247 Tomado de DÍEZ, J. y MOULINES, U., Fundamentos de filosofía de la ciencia. Barcelona, Ed. Ariel, 1997,pp. 335-336.

227

ejemplo de la Mecánica Clásica de Partículas, una reconstrucción de la teoría de Newton,

propuesta por Suppes, que parece haberse convertido en ejemplo paradigmático de la

reconstrucción estructural de las teorías científicas.

x es un sistema de mecánica (newtoniana) de partículas syssdef existen P, T, s, m, f tales que:247

(1) x= <P, T, s, m, f>

(2) P es un conjunto finito no vacío.

(3) T es un intervalo de números reales.

(4) s es una función de P x T en el conjunto de vectores tridimensionales (tríos

ordenados) de números reales y es dos veces diferenciable sobre T.

(5) m es una función de P en el conjunto de números reales tal que para todo p ∈ P:

m (p) > 0

(6) f es una función de P x T x N en el conjunto de vectores tridimensionales (tríos

ordenados) de números reales. N es el conjunto ayuda de números naturales, que

marca con un índice la f para cada p y t ; podríamos escribir ‘fi (p, t)’ en lugar de

‘f (p, t, i)’).

(7) Para todo p ∈ P y t ∈ T: m (p) . d

2/ dt2 [s (p, t)] = Ε i∈ N f (p, t, i).

(8) Para todo p ∈ P, q ∈ P y t ∈ T:

(i) f (p, t, iq) = - f (q, t, jp).

(ii) S (P, T) ⊗ f (p, t, iq) = - s (q, t) ⊗ f (q, t, jp).

El axioma número uno presenta los elementos que constituyen la estructura. Los axiomas

CAPÍTULO IV

228

dos a seis definen de forma lógico-matemática dichos elementos, mientras que los axiomas siete

y ocho son las leyes propiamente dichas de la teoría; el axioma número siete sería el segundo

principio de Newton y el número ocho el principio de acción y reacción. Aquellas entidades que

satisfacen los axiomas uno a seis son los modelos potenciales o modelos posibles de la teoría.

Los modelos efectivos o actuales serían los que cumplen los ocho axiomas, por tanto son un

subconjunto de los modelos potenciales. Habrá modelos potenciales que sólo cumplan los seis

primeros axiomas y modelos potenciales que los cumplan todos; estos últimos son los modelos

efectivos de la teoría. La diferencia entre M y Mp es la diferencia entre la parte restrictiva y la

parte conceptualizadora de la teoría.

Seguidamente tenemos las condiciones de ligadura. Estas son restricciones a los modelos

que nos permiten relacionar la información de un modelo con la de otro. Dichas restricciones se

aplican a los valores de las funciones de los distintos modelos. En el caso de la mecánica clásica

de partículas no es posible que, por ejemplo, en un modelo tierra-luna la tierra tenga una masa

y en un sistema planetario completo tenga una distinta. Como se puede apreciar, son restricciones

que afectan a las relaciones intermodélicas, no a los modelos aislados.

Finalmente, tenemos los modelos potenciales parciales, que son aquellos sistemas o

entidades observables y describibles con independencia de la teoría en cuestión, y de los que

cabe preguntarse si son modelos de la teoría. Los modelos parciales nos permiten a su vez dar

cuenta de una distinción fundamental introducida por el estructuralismo, la de los términos

teóricos y los términos no-teóricos. Dicha distinción no tiene absolutamente nada que ver con

la propuesta por la Concepción Heredada entre lenguaje teórico y lenguaje observacional. Para

la Concepción Estructural, los términos son teóricos o no en relación a cada teoría, de ahí que

CAPÍTULO IV

248 STEGMÜLLER, W., 1983, p. 93.

249 El término ‘idealizado’ se utiliza en el sentido de que el argumento empírico asociado con un elemento teóricoserá sólo aproximadamente verdad. Un sistema intencional es una parte del mundo, su adaptación a losmodelos de datos no puede realizarse sin fricciones.

229

se los denomine T-teóricos y T no-teóricos. Un término es no-teórico -en relación a una teoría

T- si es previo a dicha teoría, si es posible determinarlo de forma independiente a ella. Es teórico,

en relación a T, si no es posible determinarlo de forma independiente, si para su determinación

es necesario poner en juego los términos de la teoría. Los modelos posibles parciales han de ser

expresados en términos T no-teóricos en relación a la teoría de que se trate, o lo que es lo mismo,

podemos obtener los modelos parciales Mpp, recortando de los modelos potenciales los términos

T-Teóricos. Esto supone distinguir los modelos que usan todo el aparato conceptual de la teoría

de aquellos que sólo usan conceptos previamente disponibles. «Un modelo potencial parcial es

un ‘hecho observable’, es decir, algo que puede describirse con la sola ayuda de los términos t-no

teóricos».248

Por tanto, una teoría T puede ser caracterizada de la siguiente manera:

T es un elemento teórico idealizado249 syss existen Mp, Mpp, M, GC, GL e I tal que:

(1) K= < Mp, Mpp, M, GC, GL > es un núcleo teórico.

(2) T = < K, I >

(3) I ⊆ Mpp

Hasta aquí tenemos los componentes del núcleo teórico K, estos serían: los modelos

potenciales, donde se da cuenta de la estructura conceptual de la teoría; los modelos actuales o

efectivos, donde se añaden las proposiciones legaliformes; los modelos potenciales parciales,

CAPÍTULO IV

250 STEGMÜLLER, W., 1981, p. 35.

251 DÍEZ, J. y MOULINES, U., 1997, p. 337.

230

obtenidos, en palabras de Stegmüller, «expulsando los componentes teóricos»;250 el conjunto C

de restricciones o ligaduras globales, que ligan las funciones de los distintos modelos de la teoría,

y el conjunto de vínculos globales que ligan determinadas teorías entre sí.

Queda por señalar el dominio I de aplicaciones intencionales y la afirmación (3) que dice

que I es un subconjunto de los modelos potenciales parciales.

Para llegar a comprender su importancia, será útil el siguiente pasaje de Díez y Moulines,

aunque sea un poco extenso: «Una vez presentado el predicado conjuntista, hemos indicado cual

era la interpretación pretendida de las entidades componentes de los modelos, esto es, partículas

físicas, sus masas, posiciones espaciales, fuerzas incidentes, etc. La cuestión es, ¿quién dice eso?,

¿cómo dice eso la teoría? Puede ocurrir que el predicado sea satisfecho por entidades que

ontológicamente nada tengan que ver con esas entidades pretendidas. Por ejemplo, que los

ángeles, junto con su ‘cantidad de espíritu’, sus ‘afinidades’ o lo que sea, satisfagan esos

axiomas. O, por poner un ejemplo menos absurdo, esos axiomas son satisfechos de hecho por

estructuras puramente matemáticas, esto es, estructuras cuyo conjunto P está constituido por

números. En otras palabras, entre los modelos efectivos, no meramente entre las realizaciones

posibles, sino entre las realizaciones efectivas que cumplen (7) y (8) además de (1)-(6) hay con

seguridad sistemas puramente matemáticos (y quizás angélicos u otros de parecida rareza),

sistemas de los que no pretende hablar la teoría».251 Es decir, pretendemos aplicar la teoría a

determinadas partes de la realidad y no a otras. ¿Cómo saber a qué ámbitos de la realidad es

posible aplicar la teoría y a cuáles no? La respuesta refiere a un componente intencional

CAPÍTULO IV

231

ineludible de la práctica científica. Lo que convierte a un sistema específico en una aplicación de

la teoría es que sea considerada intencionalmente como tal por los usuarios de la teoría. El

segundo rasgo que caracteriza a las aplicaciones intencionales es que éstas han de venir descritas

en el lenguaje previo a la teoría, es decir, en términos de las modelos parciales (Mpp), que como

sabemos están constituidos por los términos T no-teóricos. Ello se debe a que, si usáramos los

términos de la teoría -sus leyes- para seleccionar su base empírica ésta sería autojustificativa. Así,

se sale al paso de la crítica acerca de la carga teórica de los datos observacionales; efectivamente,

los datos están cargados de teoría, pero de una teoría previa, no de la que se intenta contrastar.

Hasta aquí hemos hablado de teorías, pero también hemos hablado de elementos teóricos.

En cierto sentido ambos términos son equivalentes, dado que un elemento teórico es la unidad

más pequeña del aparato conceptual que puede ser usado para formular argumentos empíricos.

Un elemento teórico está formado por el par <K, I>. Pero desde una perspectiva más amplia,

ambos términos no serán intercambiables, dado que las relaciones que mantienen entre sí los

distintos elementos teóricos son esenciales a la hora de establecer la identidad de la teoría. En este

sentido ‘teoría’ ya no sería un elemento teórico sino una red teórica. Y en un sentido diacrónico

una teoría es una sucesión temporal de redes teóricas. Redes cuyos nudos serían los distintos

elementos teóricos, siendo sus mallas las diversas relaciones interteóricas postuladas. Ello nos

proporciona una visión más amplia del concepto de teoría.

De las relaciones interteóricas propuestas por el estructuralismo, a saber, especialización,

reducción, teorización, equivalencia y aproximación, una de las más importantes es la de

especialización ya que es la que ‘dibuja’ una red teórica.

Una red teórica es un conjunto de elementos teóricos que guardan entre sí una relación

CAPÍTULO IV

252 Ibídem, p. 362.

253 La cuestión es, cuál es el criterio o la característica que define una ley fundamental. No hay un criterio muyclaro para caracterizarlo, salvo que conecte todos, o casi todos, los términos de la teoría en una gran fórmula.BALZER, W., MOULINES, U. y SNEED, J., 1987, p. 19.

232

de especialización. Y una relación de especialización (σ ) entre dos teorías dadas (T, T’) sería:252

T’ σ T syss def (1) M’p = Mp, M’pp = Mpp, M’ ⊆ M, GC’ ⊆ GC y

(2) I’ ⊆ I

Intuitivamente, la relación de especialización tiene que ver con la idea de jerarquización

de las leyes en una teoría. El núcleo básico, o teoría principal, por así decirlo, consta de una gran

ley fundamental que se aplica al dominio completo de la teoría, mientras que las leyes especiales

se aplican a dominios más restringidos. El ejemplo paradigmático es el de la Mecánica Clásica

de Partículas. En la reconstrucción que se ha expuesto, consta el segundo principio de Newton

y el principio de acción y reacción, pero no figura, por ejemplo, la ley de Hooke. Esta última es

más restringida y se aplica a -un dominio empírico menor-, las fuerzas elásticas. Pero no sólo

esto, la aplicación de la ley de Hooke supone además la aceptación del segundo principio de

Newton. Esto equivale a afirmar que, en una relación de especialización, la parte conceptual -los

modelos potenciales- son iguales y, además posee la misma distinción entre el nivel teórico y el

no-teórico. De ahí que M’p = Mp y M’pp = Mpp. Por otro lado, la nueva teoría T’ se aplica sólo

a un conjunto de aplicaciones pretendidas y no tiene porqué cumplir todas las constricciones de

la teoría, sino lo que se denomina su ley fundamental.253 De esta manera, se establecen vínculos

interteóricos entre distintas teorías. Estos vínculos restringen el conjunto de modelos potenciales

que resultan apropiados a cada teoría, así GL(T) ⊆ Mp(T), donde GL es el conjunto de modelos

potenciales que satisface las relaciones interteóricas. Por tanto, una caracterización completa de

CAPÍTULO IV

233

las teorías científicas debe incluirlos.

De esta forma, a través de la relación de especialización, los distintos elementos teóricos

constituyen una red teórica, que tiene, la mayoría de las veces, la forma de un árbol invertido, ya

que todos los elementos de la red cumplen la misma ley fundamental.

3. RECONSTRUCCIÓN DE LA TEORÍA DEL COMPORTAMIENTO DEL CONSUMIDOR.

En el apartado anterior, se ha hecho un breve bosquejo de la concepción estructural de

cara, principalmente, a identificar los principales componentes del núcleo de un elemento teórico,

así como sus características. Se ha visto, asimismo, una de las principales relaciones interteóricas,

la de especialización. Desde esta concepción, se postula la existencia de otras relaciones que ligan

distintas teorías o elementos teóricos de una misma red, pero la de especialización es una de las

más importantes ya que, por un lado, permite dar cuenta de la estructura arbórea de una red

teórica y, por otro, en función de los fines del presente trabajo, aclara las relaciones entre, por un

lado, la teoría del comportamiento del consumidor (en adelante TCC), y, por otro, la teoría de la

elección social (en adelante TES).

La hipótesis de partida es, como ya señaló en la introducción, que entre ambas teorías

existe una relación de especialización, o más concretamente, que la teoría de la elección social

es una especialización de la teoría del comportamiento del consumidor. Por tanto ha de cumplir

las condiciones estipuladas para dicha relación que, como se recordará son: T’ σ T syss def (1)

M’p = Mp, M’pp = Mpp, M’ ⊆ M, GC’ ⊆ GC y (2) I’ ⊆ I, siendo T’ la teoría de la elección social

y T la teoría del comportamiento del consumidor. Por tanto en primer lugar reconstruiremos

formalmente la TCC de cara a poder identificar sus modelos, constricciones y conjunto de

CAPÍTULO IV

254 BALZER, W., Teorías empíricas: modelos, estructuras y ejemplos. Madrid, Ed. Alianza Universidad, 1997.Los artículos mencionados son «A Logical Reconstruction of Pure Exchange Economics» . Erkenntnis, 17,1982, pp. 23-46, y «The Proper Reconstruction of Exchange Economics» . Erkenntnis 23, 1985, pp. 185-200

255 JANSEEN. M. y KUIPERS, T., «Stratification of General Equilibrium Theory: A Synthesis of Reconstructions».Erkenntnis, 30, 1989, pp. 183-205. HASLINGER, F., «Logical Reconstruction of Pure Exchange Economics:An Alternative View». Erkenntnis, 20, 1983, pp. 115-129.

234

términos primitivos, en segundo lugar es fundamental aclarar la distinción entre el nivel TCC-

teórico y TCC no-teórico, esta distinción nos permitirá dar cuenta de una nueva relación

interteórica entre la teoría del comportamiento del consumidor y la teoría de la utilidad, siendo

ésta aquella que determina la magnitud del concepto de utilidad. En tercer lugar es absolutamente

necesario especificar la ley o leyes fundamentales de la teoría del consumidor, recuérdese que,

en una relación de especialización, la estructura conceptual ha de ser la misma para ambas teorías

(M’p = Mp), pero no el conjunto de restricciones legaliformes, sólo es necesario que la

especialización cumpla la ley fundamental. Finalmente, analizaremos una a una las condiciones

exigidas para poder afirmar o no, si realmente se da una relación de especialización. La

reconstrucción de la TCC será el objetivo de las páginas siguientes.

La primera dificultad con la que nos encontramos en la reconstrucción de la TCC es la

variedad de reconstrucciones propuestas de lo que sería la teoría microeconómica estándar, ya

que cada autor elige un conjunto de términos primitivos diferente.

Para Balzer (1982), (1985) y (1997),254 es la función de utilidad o de beneficio el concepto

explicativo fundamental. Para Haslinger, será el concepto de función de demanda, para Hands

será el exceso de demanda del mercado (market excess demand); M. Janseen y T. Kuiper

introducen tanto la función de demanda como la función de utilidad.255

Si lo que se desea es elucidar qué status tiene una teoría respecto a otra, deberemos elegir

CAPÍTULO IV

256 Aunque la versión original del libro es de 1982, ésta es corregida por Balzer en 1995 para su publicación encastellano. Se entiende pues, que, de las tres, es ésta la formulación más elaborada sobre el tema. Se citará porla versión castellana. BALZER, W., 1997.

257 Tanto en Balzer 1982 como en 1985 la teoría es denominada PEE ‘Pure Exchange Economics’; las diferenciasentre una y otra formulación afectan a la metateoría, no a la teoría económica que se analiza.

258 BALZER, W., 1997, p. 79.

235

una de las reconstrucciones señaladas, pero ¿cuál? y ¿en base a qué? La única respuesta a estos

interrogantes parece consistir en el establecimiento de un criterio pragmático. La reconstrucción

elegida ha sido la de Balzer, principalmente porque pensamos que la maximización de la utilidad

es el postulado fundamental alrededor del cual se articula todo el edificio teórico de la

microeconomía. Es a partir del análisis de la conducta individual, basada en el supuesto de

maximización, de donde se derivan los principales conceptos económicos, incluido el de función

de demanda y es este supuesto el que ha dirigido el debate acerca del contenido empírico de la

teoría. Por otro lado tanto en la exposición de la TCC, como en la de las diversas teorías que

pueden englobarse dentro del campo de la elección social, el concepto fundamental parece ser

el de utilidad y maximización de la misma, sujeta a restricciones.

La reconstrucción que se presentará a continuación está extraída básicamente de Teorías

Empíricas: Modelos, Estructuras y Ejemplos, apoyándonos también en los artículos

mencionados publicados en Erkennis en 1982 y 1985.256

Balzer (1995), denomina a la teoría del comportamiento del consumidor, teoría de la

economía de trueque. Aunque el término tiene connotaciones distintas en castellano al de

economía de intercambio, la denominación parece obedecer a una cuestión de traducción,257 ya

que, como afirma Balzer al comienzo del capítulo: «La economía de trueque se ocupa de las

acciones humanas que apuntan al intercambio de bienes».258 El tratamiento realizado en el

CAPÍTULO IV

259 Al igual que en el capítulo 1, γ 1, ..., γn se refieren a las distintas clases de bienes: huevos, pan, leche, etc.,identificando las distintas clases de bienes con la sucesión de los números naturales.

236

capítulo uno puede ser recogido bajo esta misma afirmación, aunque por razones de continuidad

expositiva, denominaremos TCC, (teoría del comportamiento del consumidor), a lo que Balzer

denomina ECO, (economía de trueque), o PEE, (pure exchange economics).

Para la definición del comportamiento del consumidor Balzer utiliza cinco factores o

conceptos:

J Personas

G Clases de Bienes.

q Cantidades de Bienes.

p Precios.

U Beneficios

Los cuales, formalmente definidos quedan como sigue:

J = {π 1 ,..., πm} es un conjunto finito (de personas).

G = {γ 1 ,..., γn} es un conjunto finito (de clases de bienes).

q : J x G → R

+0 (distribución de bienes).

p : G → R

+ (Función precio).

Uπ : J x R

n→ R para todo p ∈ J (funciones de beneficio).

Aclaremos un poco el conjunto de términos primitivos: J es el conjunto de agentes

económicos, es decir, aquellos que realizan los intercambios; G es un conjunto finito de clases

de bienes;259 q determina la cantidad de cada clase de bien γ 1 ,...,γn del conjunto G en manos de

cada persona (π∈ J). Evidentemente, la cantidad de bienes no puede ser negativo (R 0+), dado que

CAPÍTULO IV

237

no tiene sentido postular cantidades de bienes negativas en manos de cada persona. La función

precio coordina un número con cada clase de bien (γ ). Dicho número, ha de pertenecer al

conjunto de números reales positivos, ya que tampoco tiene sentido plantear un precio negativo

para un bien determinado, a no ser que al individuo se le pague por consumir determinado tipo

de bien, hecho que, desde luego, la teoría económica no recoge. Queda, para finalizar, el término

U, Uπ es la utilidad o beneficio de la persona π. Rn es el conjunto de los n-tuplos <α1,...,αn> que

designa la cantidad de cada bien que posee la persona π. Los valores de la función de beneficio

se dan en el conjunto R, lo cual quiere decir que se admiten valores negativos. Esto ha de ser

entendido como que el individuo puede sufrir un descenso en su utilidad total -en el sentido de

pérdida de utilidad, no como sufrimiento o dolor-, que pueda ocasionar el consumo de algún tipo

de bien.

El objetivo de la teoría es describir cómo los individuos intentan hacer máximo el valor

de U intercambiando la distribución de bienes que poseen. El proceso puede ser descrito en tres

pasos: «Inicialmente existe una distribución inicial q0 dada de mercancías. En una segunda etapa

son realizados los intercambios, hasta que nadie quiere o puede intercambiar nada más (...) En

la etapa final, después de que los intercambios han sido realizados, tenemos una nueva

distribución de mercancías. La teoría nos dice que este proceso está gobernado por ciertas reglas.

Si los individuos actúan acorde a esas reglas, la nueva distribución satisfará ciertos requerimientos

que pueden ser establecidos en forma de axiomas. Este es el truco esencial. En lugar de

establecer axiomas acerca de acciones, uno usa axiomas que describen distribuciones que son

CAPÍTULO IV

260 BALZER, W., MOULINES, U. y SNEED, J., 1987, p. 156. El hecho de que se plantee un proceso en tres etapas noquiere decir que el tiempo esté contenido en la reconstrucción de la teoría. Estamos en un análisis estáticodonde el tiempo no está implicado.

238

el resultado de tales acciones».260

3.1. LOS MODELOS POTENCIALES.

Una vez se ha establecido el significado de los términos y cómo interrelacionan entre sí

pasaremos a definir los modelos potenciales de la teoría, es decir, aquellos que pueden ser

subsumidos bajo la misma estructura conceptual. x es un modelo potencial de TCC si existen J,

G, p, qi, qf y U tales que:

(1) x = < J, G, p, qi, qf, U>

(2) J = {π 1 ,..., πm} es un conjunto finito (de personas).

(3) G = {γ 1 ,..., γn}= {1,...,n} es un conjunto finito (de clases de bienes).

(4) p : G → R

+ (Función precio).

(5) q

i : J x G → R

+0 (distribución inicial).

(6) q

f : J x G → R

+0 (distribución final).

(7) U : J x R

n→ R es C

∞ (función de beneficio).

Esta axiomatización afirma lo mismo que la presentada anteriormente: de los cuatro

primeros axiomas ya hemos hablado anteriormente, cuando se estableció la definición de los

términos. Los axiomas (5) y (6) hablan de distribuciones de bienes. Por la cita anterior sabemos

que es precisamente de distribuciones de bienes de lo que habla la teoría. El modelo presentado

es un modelo sin producción y sin dinero, es decir, esta reconstrucción no recoge cómo las

distintas clases de bienes son producidas y distribuidas inicialmente entre los individuos, por

CAPÍTULO IV

261 A este respecto ver el capítulo 1, § 3.2.

239

tanto, qi viene dada. Por otro lado qf, la distribución final, se refiere a la cantidad de bienes en

manos de cada individuo, una vez que los intercambios han sido realizados. Finalmente, tenemos

la función de beneficio; U : J x Rn→ R es C∞ resume en una sola función todas las funciones

individuales de beneficio, todas las Uπ. Que R sea C∞ quiere decir que la función es derivable de

modo infinito. Recuérdese que la primera derivada de la función representa la utilidad marginal,

mientras la segunda indica si ésta es creciente o decreciente. El uso de utilidades marginales es

indispensable tanto en un enfoque cardinal como en uno ordinal de la función de utilidad, en este

último nos permite establecer las relaciones marginales de sustitución entre cada dos bienes de

modo unívoco, con lo cual, junto a los precios y la renta del sujeto, obtenemos las funciones de

demanda, es decir, las cantidades de cada clase de bien demandadas por cada individuo.261

3.2. LOS MODELOS POTENCIALES PARCIALES.

Los modelos potenciales parciales son aquellos sistemas o entidades observables y

describibles con independencia de la teoría en cuestión, y de los que cabe preguntarse sin son

modelos de la teoría. Esto quiere decir que los modelos parciales constituyen la base empírica

de la teoría. El postulado de estas estructuras es fundamental dentro de la concepción estructural

ya que, da cuenta de la distinción teórico no-teórico dentro de cada teoría. Para ello se desarrolla

un criterio de teoricidad que pretende responder a las siguientes cuestiones:

a) ¿Cuáles son las diferentes formas en que los términos empíricos funcionan en una

teoría para producir argumentos empíricos?

b) ¿Cómo podemos distinguir precisamente una teoría de una aplicación de ella?

CAPÍTULO IV

262 BALZER, W. y MOULINES, U., «On Theorecity». Synthese, 44, 1980, pp. 467-494.

240

c) ¿Hay alguna forma de hacer plausible y precisa la tesis holista de la carga teórica de

todos los términos científicos sin caer en una interpretación idealista de la ciencia? y

d) ¿Hay algo como una jerarquía de teorías en una disciplina y una forma estándar de

reconstruirla?262

Es difícil dar una respuesta precisa a estas cuestiones, en la medida en que el criterio de

teoricidad no queda completamente fijado, pero estas cuestiones se irán aclarando al hilo del

desarrollo de los siguientes apartados. Comencemos por la precisión de la tesis de la carga

teórica.

La filosofía clásica de la ciencia sostenía que, en toda teoría científica, y por extensión en

toda ciencia, podíamos distinguir entre un lenguaje observacional y un lenguaje teórico, es decir

entre términos teóricos y términos observacionales. Esta distinción tiene por finalidad, tanto dar

significado a los términos teóricos mediante los observacionales, como la pretensión de afirmar

la neutralidad de la base observacional a través de la cual se constrasta la teoría. Esta neutralidad

de la base empírica u observacional es fundamental, dado que, si dicha base depende de la teoría

que se pretende contrastar, la contrastación deviene circular y autojustificativa. La tesis de la

‘carga teórica universal’, viene a afirmar que todo hecho, toda observación, está cargada

teóricamente, lo cual tuvo una gran repercusión sobre la Concepción Heredada.

La concepción estructural pretende haber resuelto el problema de la ‘carga teórica

universal’ relativizando el concepto de teoricidad a cada teoría científica. Los términos son

teóricos o no en relación a cada teoría

CAPÍTULO IV

263 STEGMÜLLER, W., 1983, p. 76.

264 BALZER, W., MOULINES, U. y SNEED, J., 1987, p. 55.

265 Según STEGMÜLLER, W., 1983, p. 79, la formulación de este criterio corresponde a U. Moulines. La definiciónque manejaremos está extraída de BALZER, W., MOULINES, U. y SNEED, J., 1987.

266 Dedicaremos especial atención a esta relación interteórica en el próximo capítulo.

241

El criterio de teoricidad ha tenido diversas formulaciones. Para Stegmüller, que sigue la

formulación de Sneed: «La función f (que aparece en la teoría abstracta T) es teórica con respecto

a T (o: T-teórica) syss en cada aplicación Ti de T la función concreta fi susbsumida a f se mide

de manera T-dependiente».263

En Arquitectonic for Science, se habla de determinación de un concepto y no sólo de su

medida. «Un concepto t es llamado teórico relativo a la teoría T (o t-teórico) si cada

determinación de (una relación de pertenencia a) t en cualquier aplicación de T presupone la

existencia de al menos un modelo actual de T».264 La determinación incluye la medida, pero es

un concepto mucho más abierto ya que, en muchos casos, se habla de mero cálculo y no sólo

de medida. Muy grosso modo, un término es t-teórico si para su determinación hemos de poner

en juego la teoría T, si la determinación de ese concepto implica que T sea cierta.

En lo que respecta a los términos t-no-teóricos, estos pueden ser caracterizados como

aquellos que no pueden ser determinados por T. Sin embargo, Moulines propone un criterio de

teoricidad basado en el concepto de teoría subyacente.265 Así, un término t-no-teórico es

determinado por una teoría que no presupone a T, pero que es presupuesta por T a la hora de

determinar el significado y la interpretación de los modelos parciales de T y, por tanto, formaría

parte de T. De esta forma, la teoría previa T’ proporciona los datos a la teoría T a través de una

relación interteórica, la de teorización.266 La forma de transferir información de una teoría previa

CAPÍTULO IV

267 BALZER, W., MOULINES, U. y SNEED, J., 1987, pp. 58-59.

242

o subyacente T’ a la teoría T, es a través de los vínculos interteóricos (GL) y, dentro de estos, a

los vínculos presuposicionales. Un ejemplo ayudará a clarificar esta relación: «en el caso de la

CPM (mecánica clásica de partículas) no establecemos explícitamente los axiomas cinemáticos

que determinan la posición y las condiciones cronológicas para la medida del tiempo. Pero en la

medida en que los modelos parciales de CPM están constituidos por tiempo y posición podemos

decir que tales condiciones cinemáticas y cronológicas, aunque aparentemente extrañas a CPM,

también constituyen esta teoría por determinar sus límites externos de aplicabilidad. La única

razón para no explicitarlos cuando reconstruimos CPM, es porque asumimos que están bien

establecidos en otras teorías presupuestas».267

De esta forma relativizando el concepto de teoricidad se hace plausible la tesis de la carga

teórica, sin caer en una visión idealista de las teorías. Los datos pueden estar cargados de teoría,

pero de una teoría previa, no de la que se intenta contrastar.

Tras esta digresión, veamos cómo se estructura la diferenciación teórico no-teórico dentro

de la teoría del comportamiento del consumidor. Muy brevemente, y siguiendo siempre la

reconstrucción de Balzer (1997), tendríamos:

- Distribución inicial (qi): sería un término no-teórico, ya que la teoría de comportamiento del

consumidor no proporciona ningún método de medición para qi. Es más, se supone que ésta

viene dada puesto que el modelo se construye sin producción y sin dinero.

- Precios (p): término teórico en la medida en que los precios cumplen tanto las condiciones de

maximización del beneficio como los de liquidación del mercado, por lo que habría que

CAPÍTULO IV

268 BALZER, W., 1982, p. 23.

243

considerarlos precios de equilibrio, es decir, en su determinación se implican las leyes de la teoría.

Para decirlo rudamente, podría pensarse que la determinación de los precios se realiza sin poner

en juego la teoría; sólo tenemos que ‘acudir al mercado’ y tomar buena nota de ellos. Pero no

se puede olvidar que los precios se determinan a través de la demanda de cada bien de consumo,

una vez el individuo ha maximizado su utilidad y, oferta y demanda han sido igualadas. Por

tanto, el término precio es TCC-teórico.

- Distribución final (qf): una vez el intercambio ha sido realizado, satisface ciertos requisitos que

han sido establecidos axiomáticamente a través de la teoría. Uno de estos requisitos es que sea

una distribución de equilibrio, es decir, una situación tal en la que nadie puede o quiere

intercambiar nada más, dado que en esa distribución su utilidad es máxima, sujeta a sus

restricciones de ingreso. Evidentemente, la determinación de esta distribución se realiza a través

de la teoría, por tanto qf es TCC-teórico.

- Función de beneficio: la teoricidad o no teoricidad de la función de beneficio o utilidad, merece

un tratamiento un poco más exhaustivo. El concepto de utilidad es central en teoría económica,

tanto en su vertiente positiva como en la normativa. Las razones para un tratamiento profundo

de la teoricidad o no teoricidad de U vienen dadas no sólo por los intereses del presente trabajo,

donde la función de utilidad es un concepto fundamental, sino también porque el mismo Balzer

afirma que la función de utilidad es el concepto central y crucial de las teorías

microeconómicas.268 Que su uso sea teórico o no es fundamental para seleccionar la base

empírica de la teoría, al poder así comprobar si otras teorías entran en juego o no a través de los

CAPÍTULO IV

269 HASLINGER, F., 1983, pp. 115-129.

270 Hablamos de teorías previas en un sentido metodológico, no cronológico.

244

vínculos interteóricos y para determinar la capacidad de pronóstico de TCC y las implicaciones,

que serán analizadas más tarde, para la TES.

En Balzer (1982), el autor considera la función de utilidad como téorica: tras la crítica de

Hazlinger (1983),269 modifica su concepción, pasando a considerarla en Balzer (1985) y (1997)

como no-teórica. Recordemos que un término es teórico o T-teórico si para su determinación han

de ponerse en juego las leyes de la teoría y no teórico o T-no teórico si es determinado por una

teoría previa. La crítica de Hazlinger se basa en que no es posible establecer una determinación

de la utilidad a través de la teoría del comportamiento del consumidor, lo cual implica que éste

ha de venir determinado por una teoría previa o subyacente, lo cual quiere decir que la utilidad

es TCC-no teórica.

La cuestión para dilucidar la teoricidad de un término es establecer si hay un método de

medida o determinación para el mismo, que no implique las leyes de la teoría. Desde las

formulaciones de Bentham hasta nuestros días, ha habido un esfuerzo teórico importante dirigido

a la posibilidad de medir la utilidad y, en caso de que esto no sea posible, determinarla de algún

modo. Es decir, ha de existir un procedimiento o método de medida que sea previo a la teoría.

Por lo analizado en el capítulo primero sabemos que contamos con dos métodos o dos enfoques

para determinar la magnitud de la utilidad: el enfoque de las curvas de indiferencia y el enfoque

de la utilidad marginal. Bajo la reconstrucción estructural que proponemos ambas se constituyen

como teorías previas270 a la teoría del comportamiento del consumidor.

Si utilizamos el enfoque ordinal, hay un proceso de determinación que nos da un valor

CAPÍTULO IV

271 Axioma VI, capítulo 1, § 2.1. Balzer plantea la función de utilidad cuasicóncava como una especializaciónteórica de la TCC. Es decir, hay una parte del dominio de aplicaciones pretendidas donde no se cumple quela función de beneficio sea cuasi cóncava.

272 Ha sido analizado en el capítulo I, § 5.1.

245

para la función en cada caso concreto. La forma de hacerlo es imponer una serie de restricciones

a la estructura de preferencias de los sujetos. Estas restricciones, como ya ha sido señalado, son

la reflexividad, transitividad, completud y continuidad. Además, por lo anteriormente expuesto,

sabemos que si han de ser representadas por curvas de indiferencia convexas (lo que equivale a

la cuasi concavidad de la función de utilidad), las preferencias han de ser convexas.271 Esto es lo

único necesario para determinar un valor de U a través del cual poder predecir precios y

distribuciones de equilibrio, pero no debe ser olvidado que, en este caso, la escala es ordinal.

En ese sentido, la teoría de comportamiento del consumidor presupondría, a través de la

relación de teorización, e igual que ocurría en el caso de la mecánica clásica de partículas respecto

a la cinemática, la validez de los axiomas que restringen la estructura de preferencias. Por tanto,

ha de presuponerse, en la reconstrucción y aplicación de la TCC, la validez de estos cinco

axiomas.

La problemática se agudiza si el proceso de determinación elegido es la formulación de

Von Neumann y Morgenstern. Y éste es el método de medida propuesto por Balzer.272 A través

de este proceso, puede obtenerse la función de utilidad hasta transformaciones lineales de la

misma. Este sistema tiene a su favor que contempla las elecciones de los sujetos en condiciones

de riesgo e incertidumbre, es decir, la mayor parte del rango de elecciones humanas, y que

proporciona una medida cardinal de la utilidad, es decir, única hasta una transformación lineal.

En cada aplicación de la teoría se determinaría qué teoría de ‘medición de la utilidad’ se está

CAPÍTULO IV

246

presuponiendo. Este análisis permitiría dar cuenta de los compromisos que establecen los

teóricos acerca del significado del término utilidad, básicamente como un mero indicador de

preferencia (utilidad ordinal) como una magnitud que refleja en cierta medida sensaciones de

satisfacción o insatisfacción (utilidad cardinal). La preferencia de Balzer por este último enfoque

puede ser explicada en que es matemáticamente más poderoso, ya que una escala ordinal no

preserva ningún valor matemático significativo, existiendo serias dudas para considerar la utilidad

en este sentido como un concepto genuinamente métrico. Por otro lado, la determinación de un

concepto no implica necesariamente su medición cuantitativa, determinar un concepto o una

propiedad de un objeto es establecer si es aplicable o no al objeto en cuestión y, en estos

términos ambos métodos están en pie de igualdad. Además el enfoque de la utilidad cardinal

tiene en su contra, como se verá más adelante, que el cumplimiento de sus axiomas está

fuertemente problematizado y esto puede, a su vez, suponer problemas para la TCC si se

establece algún tipo de vínculo interteórico que presuponga la validez de la teoría de la utilidad

esperada (en adelante TUE). De una forma o de otra el término utilidad es considerado como

TCC-no teórico. Ello es sumamente importante dado que los modelos potenciales parciales se

constituyen con los términos no teóricos, son ellos los que determinan la base empírica de la

teoría y un subconjunto de ellos constituirá el conjunto de aplicaciones pretendidas.

Tras el análisis que Balzer realiza de la TUE, concluye: «si existiese una pre-teoría de ECO

establecida, que clarificase el significado del beneficio o de la preferencia de un modo

satisfactorio, ECO se podría edificar sobre ella. Desgraciadamente no existe esta pre-teoría. Los

modelos de medida RN (Ramsey-Von Neumann) se ven desbordados con esta tarea: estos están

muy fuertemente ligados a situaciones de laboratorio. Este difícil aspecto explica también por qué

CAPÍTULO IV

273 BALZER, W., 1997, p. 125.

247

la teoría del trueque no suministra ni puede suministrar pronósticos precisos».273 En el próximo

capítulo serán analizadas las consecuencias que de esto se desprenden.

Llegados aquí, es posible formular los modelos parciales de la teoría Mpp, es decir,

aquellos que se presentan en vocabulario TCC no-teórico.

x es un Mpp de TCC sii existen J, G, qi, U tales que

(1) x = < J, G, qi, U>

(2) J = {π 1 ,..., πm} es un conjunto finito (de personas).

(3) G = {γ 1 ,..., γn}= {1,...,n} es un conjunto finito (de clases de bienes).

(4) q

i : J x G → R

+0 .

(5) U : J x R

n→ R es C∞.

3.3. LOS MODELOS EFECTIVOS.

Formalmente, aún no se ha dicho nada acerca de la maximización de la utilidad. Dentro

de la estructura conceptual de la teoría, de sus Mp, lo único que se pide es que los individuos

tengan una función de utilidad. La maximización es una restricción legaliforme y, como tal, su

formulación corresponde a los modelos efectivos de la teoría. Pero para poder hablar de

maximización es necesario definir el concepto de restricción presupuestaria o, en términos de

Balzer, limitación de ingresos, dado que la maximización está sujeta a restricciones. Por tanto,

para poder formular los modelos efectivos de la TCC, son necesarios dos conceptos adicionales:

restricción presupuestaria y valor. Según Balzer:

El valor de la dotación de la persona π en precios p, dada una distribución de bienes q,

CAPÍTULO IV

248

se define por:

n wπ,p,q = ∑ p (γ) · qπ (γ) γ =1

Es decir, el valor de los bienes que se hallan en manos de π depende del precio del bien

y la cantidad que de ese bien posea π.

La restricción presupuestaria LI se definiría por:

n n LIx = { q/q : J x G → R

+0 y para todo π ∈ J : ∑ p (γ) · q

iπ (γ) = ∑ p (γ) · qπ (γ)}

γ =1 γ =1

Veámoslo con un ejemplo. Si volvemos a la figura VI del capítulo uno, el valor de la

dotación sería igual a 10 unidades de x1 y 18,75 unidades de x2 a precios respectivos de 3.000 y

4.800 pts., o lo que es lo mismo, equivaldría a 120.000 pts., margen dentro del cual el individuo

ha de realizar la elección. Es decir, el individuo ha de moverse a lo largo de la línea presupuestaria

combinando distintas cantidades de x1 y x2. Las cantidades elegidas no pueden sobrepasar, dado

su precio, las 120.000 pts. que sería la renta del sujeto. Lo que la definición de LI añade viene a

ser el supuesto del equimarginalismo, esto es, la igualación de las utilidades marginales de cada

peso de compra, estableciéndose como condición, que el valor de la dotación de cada agente tras

el intercambio ha de mantenerse constante. Si el sujeto renuncia a dos unidades de x1, debe

obtener 1,25 unidades de x2 para que el valor de su dotación se mantenga constante. Recuérdese

que, en el punto óptimo -allí donde la curva de indiferencia más elevada ‘toca’ la línea de

restricción presupuestaria-, la relación de cambio de x2 por x1 es la relación marginal de

sustitución, y ésta es igual a px1 / px2, lo cual hace que el valor de la dotación se mantenga

constante. En el ejemplo, la RMS es igual a 0,625, siendo 1,25 /2 = 3000/4800.

CAPÍTULO IV

249

Con estos dos conceptos puede definirse un modelo de TCC en los siguientes términos:

x es un modelo de TCC sii existen J, G, p, qi, qf y U tales que:

(1) x = < J, G, p, qi, qf, U>

(2) x es un modelo potencial de TCC.

(3) q ∈ LI.

(4) para todo π ∈ J y para todo q : si q ∈ LI x entonces,

Uπ (q π (γ1) ,..., q π (γn)) ≤ Uπ (q

fπ ,..., q

fπ (γn))

(5) para todo γ ∈ G : ∑ q

i (π, γ i ) = ∑ q

f (π, γ i) π∈ J π∈ J

De esta forma ha quedado definido el predicado conjuntista de la TCC. Es decir, se han

establecido las condiciones que debe cumplir cualquier entidad para ser modelo de dicha

estructura. El axioma (1) sencillamente enumera los dominios de individuos que entran en la

estructura. El (2), como modelo potencial, presenta la estructura conceptual que cualquier entidad

ha de cumplir para poder ser considerada un modelo de la teoría. Los axiomas (3), (4) y (5)

expresan propiamente las leyes de la teoría, es decir aquellas restricciones que han de cumplir los

modelos efectivos.

El axioma (3) afirma que, en la distribución final, el valor de la dotación es igual al valor

de la dotación en la distribución inicial, lo que se ha venido denominando principio de

equimarginalidad. El axioma (4) se refiere a la maximización de beneficios y postula que los

beneficios extraídos en qf sean máximos en relación a la restricción presupuestaria. Nótese que

en los modelos potenciales sólo se postula la existencia de una función de utilidad, es decir, que

ésta sea determinable, mientras que en los modelos efectivos de la teoría se exige

CAPÍTULO IV

274 Aunque como señala D. W. Hands: «En tanto las teorías del equilibrio general nunca consideran la nomaximización individual, ésta parece una distinción inútil» HANDS, D. W., «The Structuralist View ofEconomic Theories: A Review Essay». Economic and Philosophy, 1, 1985, p. 319.

250

maximización.274 Por el axioma (5) todos los mercados se liquidan, es decir, para cada bien γ i, la

demanda total de γ i es igual a la oferta total de γ i. En un mercado no liquidado son diferentes la

oferta y la demanda totales.

3.4. LAS LEYES DE LA TEORÍA DEL COMPORTAMIENTO DEL CONSUMIDOR.

Es una idea fundamental de la concepción estructural que las distintas leyes de la teoría

no están en pie de igualdad, que unas son más fundamentales que otras, o, lo que es lo mismo,

que unas tienen validez universal y otras no. Subyace aquí la idea de una jerarquización de las

leyes. Por un lado, tenemos las leyes fundamentales que se aplican a todo el dominio de la teoría

y, por otro, las leyes especiales que se aplican a un campo más restringido de fenómenos. Esta

jerarquización es crucial dado que las leyes fundamentales determinan las especializaciones de

la teoría. La idea intuitiva es que todas las entidades que satisfacen el predicado conjuntista han

de cumplir la ley o leyes fundamentales, pero no tienen porqué cumplir las leyes especiales, cada

una de estas leyes va restringiendo progresivamente la teoría en distintas direcciones. Su papel

viene a ser el del cinturón protector de hipótesis auxiliares en terminología de Lakatos, mientras

que las leyes fundamentales pertenecerían al núcleo duro del programa de investigación. Por

tanto es esencial para la reconstrucción teórica y la determinación de las especializaciones, la

identificación de las leyes fundamentales o generales.

Como rasgos definitorios, en la identificación de las leyes generales, ha sido señalado que

ligan todos o casi todos los términos de una teoría en una gran fórmula, que determinan las

CAPÍTULO IV

275 BALZER, W., 1985, p. 188.

276 A lo largo del texto hemos estado haciendo equivalente la consecución del equilibrio y el hecho de que losmercados se liquiden, es decir, que se igualen oferta y demanda totales. Estrictamente hablando no es lomismo. La liquidación de los mercados, junto con la maximización de la utilidad es condición necesaria parapoder afirmar que un sistema económico está en equilibrio, pero hay supuestos adicionales, como que duranteun determinado período de tiempo precios, utilidades y cantidades totales disponibles no cambien. En lamedida en que la reconstrucción propuesta no tiene en cuenta el tiempo se puede decir que es incapaz de

251

especializaciones y que permanecen sin cambios a lo largo de una gran período de tiempo,

debido a que son empíricamente vacías.

En base a lo anterior, ¿cuál sería la ley fundamental dentro de la TCC? A la hora de

determinarla, hemos de tener en cuenta los cuatro factores señalados: a) que reúnan todos o casi

todos los términos de la teoría en una gran fórmula (cluster laws); b) que determinen las

especializaciones de la teoría; c) que su carácter sea empíricamente vacío o empíricamente

irrestricto y d) su permanencia en el tiempo.

Respecto a la primera cuestión señalada Balzer275 afirma que la ley básica o fundamental

dentro de la TCC es la ley de maximización de la utilidad. Esto lo establece por el simple

procedimiento de contar el número de términos primitivos que ocurren en la ley. Si el individuo

maximiza su ‘utilidad’, bajo ‘restricción presupuestaria’ se llega a una ‘distribución de equilibrio’

a ‘precios’ dados. Es decir, la maximización de la utilidad es la condición necesaria para hallar

una distribución de equilibrio. Éste no será estable si los individuos no han maximizado su

utilidad porque, en ese caso, habrá algún intercambio posible a realizar que le reportara a los

agentes una utilidad mayor.

La conjunción de la mayoría de los términos primitivos en el enunciado de la ley no se

cumple, por ejemplo, en lo que respecta al axioma donde se especifica que los mercados se

liquidan.276 Respecto a eso Balzer afirma: «... no parece inadecuado tratar el requerimiento de que

CAPÍTULO IV

caracterizar el equilibrio, en este sentido, y ésta es la opinión de BALZER, W., 1985, p. 190. De todas maneras,muchos desarrollos teóricos en economía son análisis estáticos de un sistema, donde el tiempo no estáimplicado, por lo que podemos obviar los supuestos adicionales mencionados y seguir equiparando igualaciónde oferta y demanda con un estado de equilibrio siempre y cuando se haya cumplido el principio demaximización de la utilidad.

277 BALZER, W., 1985, p. 189.

252

los ‘mercados se liquidan’ como una ley especial. El axioma es empíricamente no trivial,

formalmente estrecha la clase de modelos. No tiene la forma de una ley de agregado y tampoco

es válido en todas las aplicaciones pretendidas de PEE».277 Si establecemos esto como una

definición negativa, tenemos que la maximización de la utilidad tiene la forma de una ley de

agregado, o al menos es aquella, dentro de las leyes propuestas que conjuga un mayor número

de términos primitivos.

El segundo factor señalado es que la ley fundamental determina las especializaciones

teóricas. El sentido de ‘determinar’ aquí es que los modelos efectivos de las especializaciones han

de cumplir la ley fundamental. La ley de maximización de la utilidad cumple esta condición

frente a por ejemplo la propiedad de equilibrio de la distribución final o el principio de

equimarginalidad en el sentido de que ninguna de ellas puede ser formulada sin presuponer la

maximización de la utilidad por parte de los agentes. Es decir, los modelos donde los mercados

no se liquidan pueden ser vistos como especializaciones de la TCC. Habría un conjunto de

aplicaciones donde la oferta se iguala a la demanda, es decir, donde se cumple la ley especial y

un conjunto de aplicaciones donde no se cumple esta ley, pero que seguiría perteneciendo a la

TCC en tanto la ley de maximización sí es cumplida.

El carácter empíricamente vacío de las leyes fundamentales tiene que ver con su

consideración más como principios guía de la investigación que como descripciones de hechos

CAPÍTULO IV

278 Para la relación entre las generalizaciones simbólicas de Kuhn y las leyes fundamentales del núcleo estructuralver MOULINES, C. U., 1982, pp. 88-107.

279 MOULINES, C., 1982, p. 106.

280 BALZER, W., 1985, p. 188.

281 SANCHEZ MOLINERO, J. y SANTIAGO, R., Utilidad y bienestar. Madrid, Ed. Síntesis, 1998, p. 26.

253

particulares. Son las generalizaciones simbólicas de los paradigmas kuhnianos.278 En este sentido,

la maximización de la utilidad se constituye como guía de la investigación, como el principio

explicativo que ha de seguirse si se quiere obtener resultados con el uso del utillaje económico.

«Su valor es, usando el término de Kuhn, el de una promesa, el de un poderoso principio motriz

para hacer ciencia. La promesa implícita en el principio-guía consiste en que se nos asegura que

si adoptamos el esquema conceptual general propuesto por el principio guía, a la larga, y con la

suficiente paciencia y habilidad, obtendremos los resultados empíricos apetecidos. La promesa

es, limitada al principio-guía, muy vaga e indeterminada; pero define la estructura general dentro

de la cual hay que buscar los parámetros y funcionales requeridos para tratar cualquier caso

particular».279

d) Finalmente, en lo que respecta a la continuidad en el tiempo de las leyes

fundamentales, Balzer afirma: «en la medida en que no es posible ningún enfrentamiento con la

realidad no hay necesidad de enmienda o reformulación».280 Veamos que significa esto en la

teoría que estamos manejando.

El concepto de utilidad, en relación a la economía y a la política, puede rastrearse hasta

Bentham, J. Mill y J. S. Mill, es decir, finales del Siglo XVIII. Según Sánchez Molinero y

Santiago Hernando,281 la idea de que la utilidad o satisfacción que se deriva del consumo de una

mercancía puede medirse por una función de utilidad creciente, aparece por primera vez en la

CAPÍTULO IV

254

literatura económica en 1738 en un trabajo de D. Bernoulli. Efectivamente, parece que la ley tiene

una larga historia, y también parece haber cumplido su papel de principio-guía, ya que se ha ido

aplicando progresivamente a más y más áreas dentro de la economía: teoría de la demanda, teoría

de la oferta de trabajo, teoría del capital y del tipo de interés, teoría de la decisión en contextos

de incertidumbre, ... y su última ‘promesa’, la teoría de la elección social.

Pero, ¿por qué afirma Balzer que no es posible ninguna confrontación con la realidad?

La razón ya ha sido esbozada antes. El principio de maximización de la utilidad, de alguna forma,

explica el comportamiento humano, sin embargo en sus aplicaciones económicas no se ocupa

de tal cosa. Su objeto de estudio son las distribuciones finales, resultado de un comportamiento

subyacente, no las acciones en sí. Como resultado de esto la maximización de la utilidad nunca

se contrasta con la realidad. Por otro lado hemos de tener en cuenta que la función de utilidad de

la que habla la teoría definida como U : J x Rn 6R es C 4 es una función que resume todas las

funciones individuales, no es una función de utilidad individual, lo cual quiere decir que o bien

es una función promedio o es una función de funciones. La contrastación acerca de la magnitud

de la utilidad, en el sentido de ser ésta máxima o no, no se produce en el nivel individual, sino en

el agregado, pues es en estos términos en los que la teoría ha sido formulada y reconstruida.

3.5. CONDICIONES DE LIGADURA.

Nos queda un último aspecto que reseñar en esta reconstrucción: las condiciones de

ligadura. Recordemos que éstas son restricciones intermodélicas que nos permiten transportar

la información de un modelo a otro, aplicándose a los valores de las funciones de los distintos

modelos. En este sentido son esenciales para la predicción pues, mediante el puro cálculo, nos

CAPÍTULO IV

282 ARROW, K. J., «Behaviour Under Uncertainty and its Implications for Policy» , en BELL, D., RAIFFA, H. yTVERSKY, A., (Eds.), Decision Making. Cambridge, Ed. Cambridge University Press, 1988, p. 497.

255

permite deducir los valores de una función en un modelo, partiendo de los valores de la función

en un modelo distinto.

Una parte del objeto de estudio de la TCC son los agentes económicos. Es de esperar

pues, que las propiedades relevantes al estudio dentro de la TCC, esto es, la función de beneficio,

permanezca constante a través de los diversos sistemas bajo estudio. Según Balzer: «En un

conjunto x de economías potenciales de trueque, vale la condición de ligadura del beneficio sii

x, x’ ∈ X y para todo π vale que si π ∈ J ∩ J’, entonces U π = U’ π».

Tal como señala Arrow, «el supuesto de que elecciones hechas bajo diferentes

condiciones son consistentes entre sí es esencial a la práctica del análisis coste-beneficio. La

elaboración de esas condiciones de consistencia conduce a los postulados de racionalidad de la

teoría económica estándar».282 Más adelante entraremos en el cumplimiento o no de esta

restricción intermodélica. Como adelanto, podemos decir que, si la función de beneficio de un

mismo individuo no se mantiene constante, no ya de un contexto económico a un contexto

político, sino entre diferentes contextos económicos, la capacidad predictiva de la teoría queda

seriamente dañada.

3.6. APLICACIONES INTENCIONALES.

Es obvio que cuando formulamos una teoría pretendemos dar cuenta de una parcela de

la realidad, de un dominio de fenómenos empíricos. El núcleo teórico nos proporciona el

conjunto de condiciones que los sistemas físicos han de cumplir para ser considerados modelos

CAPÍTULO IV

283 Lo cual es una forma de decir que hemos aumentado su presupuesto sin las complicaciones adicionales deintroducir el dinero en el modelo.

256

de la misma. Los sistemas de los que se pretende afirmar que son modelos de la teoría son las

aplicaciones intencionales. Estas constituyen la base empírica de la teoría. Para poder aplicar la

teoría estos sistemas físicos han de estar conceptualizados conforme al esquema conceptual de

la teoría, pero no totalmente conceptualizados, pues nos volveríamos a enfrentar al problema de

la carga teórica de los datos. Por ello, las aplicaciones intencionales vendrán conceptualizadas

conforme a los términos no-teóricos de la TCC, es decir, conforme a sus Mpp, sus modelos

parciales. Estos nos proporcionan los datos, la determinación de sus términos. Por ello, es

fundamental contar con una medida o determinación del término utilidad que sea previo a la

aplicación de la teoría a ese sistema dado. Una vez que han sido establecidos los datos relativos

a los términos no-teóricos (distribución inicial y utilidad), se trata de obtener el resto de los

valores de los conceptos de cara a averiguar si cumplen las leyes de la teoría, las condiciones de

ligadura y los vínculos interteóricos. Es decir, debemos averiguar si con una distribución inicial

y una función de utilidad dada se obtienen precios y cantidades que cumplan la ley fundamental

del sistema, la maximización de la utilidad. Dado que precios y distribuciones finales (de

equilibrio), que son conceptos TCC-teóricos, sólo son determinables si los sujetos maximizan

sujetos a restricciones.

Un ejemplo sencillo puede ser clarificatorio. Supongamos que la demanda de un

individuo para el bien x es y dada una distribución inicial y una función de utilidad individual.

Y ahora supongamos que aumentamos la cantidad del bien z poseído por ese individuo.283 Este

es nuestro modelo parcial, nuestra aplicación pretendida. Si ese aumento en el presupuesto

CAPÍTULO IV

257

conlleva una demanda mayor del bien y, establecida por la teoría en digamos x+1 que es donde

el individuo maximiza su utilidad a precios de equilibrio, podemos decir que este sistema es una

aplicación de la teoría, es un modelo de la misma. Como se puede observar en este sencillo

ejemplo la dinámica de aplicación de la teoría consiste en aumentar los modelos parciales con los

términos teóricos para lograr un modelo efectivo de la teoría. Pero es fundamental que contemos

con una determinación independiente de los términos no-teóricos para poder predecir el nuevo

valor de estos términos, con un cambio en las variables, en función de las leyes de la teoría.

Esta es la forma en que funcionan los términos empíricos en una teoría, y la manera de

distinguir una teoría de una aplicación de ella. El conjunto de aplicaciones ha de venir formulado

en lenguaje T no-teórico, teniendo la estructura de los Mpp de la teoría.

* * *

Llegados a este punto contamos con una reconstrucción en términos estructurales de la

teoría del comportamiento del consumidor. Se trata, en lo que sigue, de analizar si se dan las

condiciones exigidas para poder afirmar la relación de especialización estre esta teoría y la teoría

de la elección social. Pero pueden ser extraídas algunas consideraciones interesantes acerca de

las posibilidades de análisis que esta reconstrucción nos brinda.

En primer lugar nos proporciona un deslinde claro entre la teoría de la utilidad y la teoría

del comportamiento del consumidor y en segundo lugar, dentro de la primera, entre el enfoque

ordinal y el enfoque cardinal. Esto a su vez nos permite dar cuenta de porqué todo el debate que

se generó a raíz del contenido empírico de los supuestos no parecía afectar a la teoría del

comportamiento del consumidor. Tradicionalmente los teóricos han considerado la utilidad como

dada, bajo el análisis estructural ‘dada’ quiere decir proporcionada por una teoría previa, por

CAPÍTULO IV

284 En el próximo capítulo analizaremos como los problemas planteados en la teoría de la utilidad afectan alas consideraciones acerca del contenido empírico de la teoría del comportamiento del consumidor.

258

tanto los problemas para determinar el término utilidad, para establecer su magnitud en la medida

de lo posible, se focalizan en la teoría de la utilidad, sea esta cardinal u ordinal, y no en la teoría

del comportamiento del consumidor.284 Por otro lado, considerar el enfoque de las curvas de

indiferencia y el enfoque de la utilidad marginal como dos teoría de medición de la utilidad,

susceptibles de utilización de manera independiente, permite dar cuenta de los compromisos

ontológicos y metodológicos de los teóricos respecto a la utilidad y el papel que ésta juega en la

teoría del comportamiento del consumidor.

Finalmente permite dar cuenta de la ‘ley’ de maximización de la utilidad en los mismos

términos que ésta se ha venido manejando a lo largo del debate metodológico generado en el

último siglo, como un principio heurístico, como una guía para la investigación más que como

descripciones de hechos particulares, pero una guía central, aquella que caracteriza, que define

a la teoría y sus especializaciones.

4. RELACIONES INTERTEÓRICAS: LA ESPECIALIZACIÓN.

A partir de J. S. Mill el modelo de agente económico queda caracterizado por el deseo de

riqueza al que acompañan, porque entran ocasionalmente en conflicto con él, la aversión al

trabajo y el amor al lujo. Se trataba de establecer la línea de acción de los individuos si ésta fuera

la única motivación de su conducta. Pero Mill no pretendía que las conclusiones así obtenidas

fueran aplicables a otros ámbitos de la conducta en la que ese deseo de riqueza no fuera la

motivación principal, en estos casos, las conclusiones obtenidas a partir de la hipótesis de la

CAPÍTULO IV

285 Muchos teóricos afirman que la función de utilidad no tiene por qué estar compuesta únicamente por elbeneficio económico, pero sabemos que el modelo excluye explícitamente las interdependencias entreconsumidores, aplicado al ámbito de la elección social el bienestar de otro no puede entrar en mi función deutilidad dado que se exige que las funciones sean independientes.

259

motivación única no serían aplicables para explicar o predecir acontecimientos reales.

Esto tiene como consecuencia la circunscripción del modelo al ámbito de los asuntos

económicos mientras que, por ejemplo, en el ámbito político se supone las acciones individuales

impulsadas por motivaciones distintas como, por ejemplo, la búsqueda del bien común.

Existían pues dos modelos ideales de conducta aplicables a un mismo individuo. Este

podía ser considerado en unos ámbitos como un maximizador de riqueza neta y por otro como

un filántropo dedicado al bienestar de su comunidad.

Aunque el modelo económico va abriéndose paulatinamente de forma que en la función

de utilidad puedan entrar como argumentos muchos otros deseos sin ser la búsqueda de

riqueza,285 es el modelo de agente económico como maximizador de la riqueza el que acaba

imponiéndose en el análisis de la conducta humana prácticamente en cualquier ámbito de

actuación. Autores como J. Buchanan lo justifican en base a la coherencia lógica: «la carga de la

prueba debería recaer sobre aquellos que sugieren que pueden aplicarse modelos del hombre

completamente diferentes en los campos del comportamiento económico y político. La

coherencia lógica sugiere que, al menos inicialmente, examinemos las implicaciones derivadas

de usar los mismos modelos en diferentes escenarios (...) podemos simplemente definir a una

persona en términos de su conjunto de preferencias, su función de utilidad. Esta función define

o describe un conjunto de posibles trade-offs (intercambios) entre alternativas de elección

potencial, ya se trate de elegir entre manzanas y naranjas en el mercado o entre la guerra y la paz

CAPÍTULO IV

286 BUCHANAN, J., «Política sin romanticismo» en BUCHANAN, J., McCORMICK, R., et. al., Un análisis económicode la política. Madrid, Ed. Instituto de Estudios Económicos, 1984, pp. 114-115.

287 BECKER, G., 1980, pp. 12, 14, 18.

288 Véase HANDS, D. W., 1985, p. 329.

260

para la nación». 286

Otros autores como G. Becker lo justifican como el modelo apropiado de individuo: «La

combinación de supuestos: comportamiento maximizador, equilibrio de mercado y preferencias

estables, utilizada de forma firme y consistente, constituye el núcleo central del enfoque

económico (...) En realidad he llegado a la convicción de que el enfoque económico es tan

general, que resulta aplicable a cualquier comportamiento humano (...) El núcleo de mi

argumento es que el comportamiento humano no está compartamentalizado, basándose a veces

sobre la maximización y otras veces no, motivado a veces por preferencias estables y otras veces

por preferencias volátiles, siendo a veces el resultado de una acumulación óptima de información

y no siéndolo otras. Creo más bien que todo el comportamiento humano puede considerarse

como realizado por participantes que maximizan su utilidad a partir de un conjunto estable de

preferencias y que acumulan una cantidad óptima de información y de otros factores en una

variedad de mercados».287

Este es el tema que subyace a la relación entre la teoría del comportamiento del

consumidor y la teoría de la elección social, la validez del modelo de agente económico, la

susceptibilidad de exportación a otros campos y en qué términos se produce dicha exportación.

Algunos autores288 han considerado el enfoque de G. Becker ejemplificado en la cita

anterior como un ejemplo de progreso empírico dentro de la teoría de la TCC: «Lo que Becker

CAPÍTULO IV

261

y sus seguidores han hecho es extender la teoría estándar de la elección del consumidor a tipos

de elecciones donde no había sido previamente aplicada, a cosas como decisiones acerca del

número de hijos o la elección marital». De acuerdo con la concepción estructural, se ha alcanzado

progreso empírico cuando se expande el conjunto de aplicaciones pretendidas. En este sentido,

se selecciona cualquier elección de un agente o un conjunto de ellos -en cualquier ámbito, ya sea

político, económico o personal- y se aplica la TCC, afirmando que ese sistema es un modelo de

la teoría de la TCC. Pero este enfoque puede llegar a trivializar la noción de progreso empírico

en la medida en que a más individuos y más contextos de decisión más elecciones y, por tanto,

más aplicaciones pretendidas, entendiendo por tal cualquier situación de elección.

El estudio de los diversos componentes de la teoría de la elección social lleva a otra línea

de investigación, la de la especialización teórica. Como se recordará, una relación de

especialización dentro de la concepción estructural venía dada por : T’ σ T syss def

(1) M’p = Mp, M’pp = Mpp, M’ ⊆ M, GC’ ⊆ GC y

(2) I’ ⊆ I

Lo más importante aquí es que los modelos potenciales y los modelos parciales de ambas

teorías han de ser iguales, es decir, han de tener la misma estructura conceptual y la misma

distinción entre el lenguaje teórico y el no-teórico.

De lo que tratan las páginas que siguen es de dilucidar si podemos concluir que TES es

una especialización teórica de la TCC; para ello, analizaremos una a una las condiciones exigidas.

CAPÍTULO IV

289 ARROW, K. J., 1974a, pp. 67-68.

262

4.1. Mpp (TES) = Mpp (TCC).

Se recordará que los elementos constituyentes de los modelos parciales posibles eran: un

conjunto finito de personas (J); un conjunto finito de clases de bienes (G); una distribución inicial

(qi) y una función de utilidad (U) que ponía en relación el beneficio de los individuos con las

cantidades poseídas de cada clase de bien. El único requisito matemático para esta función era

que fuese parcialmente derivable de modo infinito.

Recordemos el planteamiento de Arrow respecto a la elección social: «Suponemos que

hay un conjunto básico de alternativas que se presentan como posibles al que tiene que hacer la

elección. En la teoría de la elección del consumidor cada alternativa consistiría en una

combinación de bienes; en la teoría del equilibrio de la empresa, cada alternativa consistiría en

un conjunto completo de decisiones respecto a todos los inputs y outputs; en la economía del

bienestar, cada alternativa consistiría en una distribución dada de las exigencias de trabajo y

bienes. En general, cada alternativa será un vector; no obstante, en la teoría de la elección las

alternativas figurarán como candidatos. Las alternativas son mutuamente excluyentes; las

denotaremos por las letras minúsculas x, y, z, ... En cada ocasión el individuo tiene a su alcance

un subconjunto S de todas las alternativas posibles y tiene que elegir una alternativa de este

conjunto. El conjunto S es una generalización de la conocida curva de oportunidad; así en la

teoría de la elección del consumidor bajo competencia perfecta, representaría el plano del

presupuesto».289

Poco hay que añadir a la cita de Arrow para identificar estas estructuras; tenemos un

conjunto de agentes, un conjunto de clases de bienes o alternativas que consisten en una

CAPÍTULO IV

290 Ibídem, p. 76.

291 El uso del postulado de continuidad es necesario en función de la idealización matemática implicada en el usode los números reales. «En la medida en que preferencias completas y transitivas sobre cualquier conjuntofinito serán automáticamente continuas, la condición de continuidad es discutiblemente trivial» . HAUSMAN,D., 1992, pp.17-18.

263

distribución dada, en el sentido de una distribución factible, de trabajo y bienes. Esta distribución

inicial es considerada como dada ya que siempre habrá de partirse de una situación social

determinada. Lo único que podría constituir una diferencia es la función de utilidad, dado que

Arrow no establece directamente una función de beneficios o de utilidad, sino los requisitos que

ha de cumplir una estructura de preferencias para poder realizar una elección. Como se recordará,

los requisitos impuestos a las ordenaciones de preferencia individual eran reflexividad,

transitividad y completud, que son los que a su vez permiten establecer una función de utilidad.

Las razones aducidas por Arrow son: «... en primer lugar la dificultad formal de que si

establecemos hipótesis de continuidad no suficientes acerca del orden puede no haber forma de

asignar números reales a las diversas alternativas de forma tal que se sigan cumpliendo los

requisitos habituales de una función de utilidad. En cualquier caso estaríamos simplemente

sustituyendo la expresión xRy por la expresión U(x) ≥ U(y), quedando sin modificar la estructura

de las demostraciones, en tanto que perjudicaríamos la elegancia del tratamiento por la

introducción de una función superflua U(x), cuya significación descansa por completo en sus

propiedades ordinales».290 De modo que la única diferencia entre los modelos parciales de ambas

teorías consiste en relajar el postulado de continuidad.291

Aquí ha de ser resaltado en primer lugar, la equivalencia entre los dos métodos reseñados

en el capítulo primero, es decir, el enfoque ordinal y el cardinal, aunque este último contenga

CAPÍTULO IV

292 Ver HAUSMAN, D., 1992, pp. 48 y ss.

264

supuestos más restrictivos, es decir, todo lo que es necesario para construir una función de

utilidad es una ordenación de preferencias, que la utilidad en esa función tenga un significado

cardinal o un significado ordinal depende de supuestos adicionales. Si mantenemos una escala

ordinal sabemos que no se preserva ningún valor matemático significativo, esto quiere decir que

no se pueden realizar con estas magnitudes las operaciones matemáticas habituales como la suma

o la resta. La cuestión es que mientras no necesitemos, pongamos por caso, sumar las funciones

de utilidad de los distintos individuos no tenemos porqué introducir los supuestos más

restrictivos que implican una escala cardinal. Hay ocasiones en que lo importante no es el valor

absoluto de la función en cada caso, sino las relaciones de igualdad o desigualdad que es posible

establecer a partir de ella, y para ello nos basta con una función ordinal de la utilidad.

Una vez ha quedado establecida la identidad entre los modelos parciales de ambas teorías,

veamos qué ocurre con los modelos potenciales.

4.2. Mp (TES) = Mp (TCC).

A los modelos parciales, hemos de añadirles los términos teóricos que en la

reconstrucción de la TCC supone una función precio y una distribución final. La interrelación

entre ambos conceptos es compleja. En el ámbito de la teoría económica, la distribución final,

es decir, las cantidades de bienes demandadas por los individuos, son considerados como

causalmente determinadas por los precios. Pero en el mercado, los precios son, a su vez,

determinados por la conducta de los agentes. No hay una teoría de cómo se produce esta

interrelación, de cómo la competición entre compradores y vendedores determina los precios.292

CAPÍTULO IV

293 BOWEN, H., «La interpretación del voto en la asignación de recursos económicos» . En ARROW, K. J. ySCITOVSKY, T., (Comps.), 1974, pp. 151-171. La importancia de la propuesta de Bowen radica en que Arrowlo cita expresamente en Elección social y valores individuales pp.58, como uno de los tratamientosparadigmáticos donde se considera mercado y voto como casos especiales de la elección social colectiva. Paraun tratamiento sistemático de las dificultades en la provisión de bienes públicos ver OLSON, M., La lógica dela acción colectiva. México, Ed. Limusa, 1992.

265

En el ámbito de la elección social nos enfrentamos al mismo problema, agravado por las

características de los bienes públicos y la posibilidad de conducta estratégica por parte de los

agentes. Pero partimos del supuesto de que precios y distribución final interactúan igualmente

en el ámbito de la TES y de la TCC, dado que en la teoría de la elección social, los individuos

revelan su función de demanda (o su preferencia por una cantidad determinada del bien público)

a través del proceso de votación. Por tanto hay una interrelación entre la conducta de los agentes,

determinada a través del proceso de votación en lugar de a través de un acto de compra, y las

cantidades de bienes públicos a los que finalmente se accede.

El profesor Howard R. Bowen293 plantea precisamente una interpretación del voto de

modo que éste sea el recurso significativo en la asignación de los bienes públicos, considerando

mercado y voto como aspectos de la elección social colectiva.

Cuando hablamos de bienes individuales o privados, la cantidad ideal de producto la

marca el punto de intersección entre la curva de demanda y la curva de costo correspondiente.

Bowen hace una adaptación de la curva de demanda para los bienes públicos, a la que denomina

tasa de sustitución marginal. Ésta expresa la relación marginal de sustitución entre, por ejemplo,

educación, considerado como un bien público, y otros bienes. Tales tasas marginales de

sustitución son susceptibles de suma por tanto, tendremos una tasa de sustitución marginal global

CAPÍTULO IV

294 Esta tasa global correspondería a la curva de demanda del mercado, la diferencia entre ambas sería: «La curvade demanda se obtiene sumando el número de unidades del bien que comprarían los varios individuos a cadauno de los precios posibles (suma horizontal); en cambio, la curva de sustitución marginal total se obtienesumando las tasas marginales de sustitución (expresadas en dinero) de los varios individuos a cada cantidadposible del bien social (suma vertical).» BOWEN, H., 1974, p. 155.

266

de la población para cada bien colectivo.294

Para obtener dicha tasa de sustitución marginal se recurre al sistema de votación. Se trata,

en consecuencia, de utilizar el voto como instrumento de medición de las tasas marginales de

sustitución y, en última instancia, del costo del bien para cada individuo.

La preferencia de cada individuo depende de los beneficios que espera obtener y del costo

del bien colectivo para él, es decir, la parte que le toca pagar; y, éste, a su vez, del costo total y

de la distribución del mismo entre la comunidad. La ordenación de preferencias expresaría la

cantidad que indique la intersección de su curva de sustitución marginal y su curva de costo

marginal. Si la distribución del costo se hace en base al principio del beneficio, necesitamos tener

información acerca de las tasas marginales de sustitución de cada agente. Se supone que dicha

información es obtenida a través del voto

Ahora nos enfrentamos al problema de determinar el precio del bien, ya que la votación

depende del precio anunciado y no hay ninguna regla para determinar el precio antes de la

votación. Estamos hablando de precio en términos económicos, no en términos del costo

subjetivo del bien para el individuo. Para ello no necesitamos introducir el dinero pues ya hemos

establecido, véase capítulo uno, el valor de una dotación puede ser establecida a través de la

combinación de distintas cantidades de dos bienes. Pero seguimos necesitando una referencia

objetiva.

Dentro de la TES, y concretamente dentro de la propuesta de Bowen, este problema es

CAPÍTULO IV

295 Ibídem, p. 163.

267

solucionado a través de una técnica de ensayo y error: «El resultado de la votación depende

enteramente del precio anunciado. Surge así la cuestión de si hay una regla para determinar el

precio correcto antes de la votación. La respuesta es negativa. Sin embargo, como resultado de

sucesivos ensayos y errores durante un período de tiempo, se puede estimar, con gran precisión,

el precio correcto, especialmente en vista de que (1) la dirección del error se conoce después de

cada ensayo, y (2) después de varios ensayos se conocerá más de un punto de la curva SMgT/N

(curva media de sustitución marginal). Además, es concebible que se pueda pedir a los votantes

que indiquen sus preferencias en cada uno de los precios posibles, con lo que podrá determinarse

la posición de SMgT/N para varios puntos, y se podrá localizar de inmediato la intersección de

SMg/N y CM/N (curva de costo marginal por persona)».295

Por tanto, en principio, podemos concluir que el esquema conceptual de ambas teorías,

es decir, sus modelos potenciales, son iguales. La única diferencia estriba en el proceso de

revelación de preferencias, en un caso mediante un acto de compra y en otro mediante un

proceso de votación; pero esta diferencia, aunque significativa, no parece diferenciar los modelos

potenciales de ambas teorías; en ningún sitio dentro del esquema formal se establece como han

de ser reveladas las preferencias de los agentes.

4.3. M (TES) ⊆ Μ (TCC).

De las condiciones impuestas a la relación de especialización, hemos visto la igualdad de

modelos potenciales y modelos parciales de ambas teorías. El resto de las condiciones son: que

los modelos efectivos de la especialización, en este caso de TES, sean un subconjunto de los

CAPÍTULO IV

268

modelos efectivos de TCC. Que, asimismo, sean un subconjunto las condiciones de ligadura y

las aplicaciones intencionales. En este apartado veremos la condición referida a los modelos

efectivos. Recordemos que los modelos efectivos de la teoría son aquellos que tienen la

estructura de los modelos potenciales, y a su vez cumplen las leyes de la teoría

Que en la relación de especialización sólo se exija que los modelos efectivos de la TES

sean un subconjunto de los modelos efectivos de la TCC viene a decir que no es necesario que

se cumplan, para los primeros, todas las leyes que definen los modelos efectivos de TCC. Basta

con que se satisfaga su ley fundamental, ya que, no lo olvidemos, la ley fundamental es la que

determina las especializaciones de la teoría. Aún así, especificaremos todas las leyes de la TCC

y veremos en qué medida se cumplen en el ámbito de la TES. Pero antes hemos de hacer una

aclaración importante. Hemos expuesto la parte formal de ambas teorías, su estructura

conceptual. Para la TCC ha quedado claro que lo que interesa a la teoría, en lo que se refiere a sus

aplicaciones, son las cantidades de bienes demandadas e intercambiadas, la determinación de

precios de equilibrio y cómo todo ello se produce en un contexto donde los agentes maximizan

su utilidad. Por decirlo grosso modo lo que interesa a la teoría son cantidades de bienes

intercambiadas y como éstas, bajo ciertas condiciones, quedan finalmente distribuidas. En lo que

respecta a la TES lo que interesa, igualmente, son las cantidades de bienes demandadas por los

individuos, en este caso bienes públicos. La cantidad demandada de estos bienes, igual que en

el caso de la elección en el mercado, es dependiente del precio del bien, pero su pago, por decirlo

de alguna manera, no se realiza directamente sino a través de los sistemas impositivos. Esto añade

dificultades al análisis como puede ser la conducta estratégica o la revelación falseada de

preferencias por parte de los agentes, pero en principio no modifica el uso del aparato formal de

CAPÍTULO IV

296 Lo que se ha denominado una línea de contrato generalizada.

297 El supuesto implícito es que el individuo votará por aquella distribución bien público-contribución fiscaldonde se igualen sus utilidades marginales, ya que en ese punto se maximiza su utilidad.

269

análisis.

Las leyes de la TCC son: a) la ley de equimarginalidad; b) la ley de equilibrio en el

intercambio, es decir, igualación de oferta y demanda totales, y c) la ley de maximización de

beneficios.

a) El principio de equimarginalidad exige que el valor de la dotación para la persona i no

se modifique tras el intercambio. La argumentación acerca de las relaciones marginales de

sustitución es demasiado técnica para ser reproducida aquí. A niveles no formales podemos

afirmar, para la teoría de la elección social, que se trata de construir el espacio de curvas de

indiferencia para el espacio bien público-contribución fiscal. Siendo posible hallar, dentro de ese

espacio, una serie de puntos296 que representan cantidades óptimas de bien público-impuesto para

cada individuo. La diferencia radica en que es un proceso de votación el que determina

finalmente la cantidad del bien y el impuesto para todo el grupo. En función de ello, puede haber

individuos en quienes no coincide la cantidad de bien público finalmente asignada y sus

preferencias por dicha cantidad. Esto depende del sistema de votación que se utilice. En principio,

bajo regla de unanimidad, las relaciones marginales de sustitución de los individuos se igualan,

pero no necesariamente bajo otras reglas.297 Por tanto, en lo que al principio de equimarginalidad

se refiere, podemos afirmar, dentro de la TES, que se cumplirá o no dependiendo de una serie de

condiciones adicionales, entre ellas el sistema de votación utilizado.

b) Ley de equilibrio en el intercambio. Dentro de la TCC, el postulado del equilibrio se

CAPÍTULO IV

270

refiere a la igualación de oferta y demanda totales. Se llega a un estado de equilibrio cuando no

puede realizarse ningún intercambio más sin que al menos uno de los sujetos empeore, es decir,

se llega a un óptimo de Pareto. Este patrón se traslada a la teoría de la elección social. Aquí la

existencia de un equilibrio, significa la selección de una y sólo una situación social, simplificando

mucho, una y sólo una combinación de bien público-contribución fiscal. Es decir, que el

resultado de la votación no sea cíclico.

En el capítulo dos (§7) se analizó la teoría de D. Black sobre restricciones a las

ordenaciones de preferencia. Black afirma que en el ámbito de la elección social, utilizando la

teoría de la utilidad o de las curvas de indiferencia y haciendo una serie de supuestos adicionales,

como la unimodalidad de las curvas de preferencia o el número impar de votantes, se obtiene una

situación de equilibrio exactamente igual a la que se obtiene cuando se cruzan las curvas de oferta

y demanda. La analogía es presentada como tal por el mismo Black, vale la pena citarlo

extensamente: «No podemos dejar de señalar la analogía (...) con el principio fundamental de la

economía: el que demuestra la determinación del precio por la oferta y la demanda. El teorema

que hemos probado demuestra que la decisión adoptada por el comité, se determina en cuanto

se da la posición de un óptimo - al que podemos llamar convenientemente la mediana de los

óptimos-. Independientemente de la forma en que se modifiquen o trasladen las curvas de

preferencia, o los óptimos de los otros miembros. Mientras uno de los óptimos continúe siendo

la mediana, la decisión del comité debe permanecer fija. La analogía con la ciencia económica

reside en que, en la determinación del precio en un mercado, el precio permanece constante

mientras esté fijo y dado el punto de intersección de las curvas de oferta y demanda, como quiera

CAPÍTULO IV

298 BLACK, D., en ARROW, K. J. y SCITOVSKY, T., (comps.), 1974, p. 180.

271

que se modifique la forma de tales curvas, por encima y por debajo del punto en cuestión».298

¿Es relevante para la consideración de la TES como especialización teórica de la TCC el

cumplimiento de estas restricciones? Parece que no. Lo que determina la especialización teórica

es el cumplimiento de la ley fundamental de la teoría, esto es del principio de maximización de

la utilidad. El postulado de equilibrio y de equimarginalismo pueden ser consideradas leyes

especiales, leyes que se cumplen en un dominio más restringido de fenómenos, que estrechan

la clase de modelos. Esta restricción se produce, por ejemplo en el caso del equilibrio y para la

propuesta de Black, añadiendo condiciones más restrictivas de las planteadas a las preferencias

de los votantes y al número de los mismos, encontraremos modelos de la teoría en situaciones

de equilibrio cuando se den estas restricciones adicionales. En lo que respecta al

equimarginalismo, en el caso de que la cantidad provista del bien público no sea coincidente con

la preferida por el sujeto, puede ser afirmado que es necesario imponer condiciones al mecanismo

de votación, es decir, al método a través del cual los sujetos revelan sus preferencias. El individuo

vota efectivamente la distribución que iguala sus utilidades marginales. Ello no implica un cambio

sustancial respecto a la TCC, al contrario es una situación compartida por ambas teorías y de la

cual nos permite dar cuenta la reconstrucción estructural. Sabemos que en teoría microeconómica

conviven modelos de equilibrio con modelos en los que éste está ausente, pero ambos pertenecen

a la misma teoría sólo que en estratos diferentes, pero una visión de la red teórica general debe

dar cuenta de la existencia de ambos tipos de modelos.

c) Ley de la maximización de beneficios. Lo que sí tienen que cumplir todos los modelos

CAPÍTULO IV

299 Se entiende distribución-costo.

272

efectivos de la TES es la ley fundamental de la TCC, esto es, la maximización de la utilidad.

Dicha ley, considerada como un principio-guía en el sentido de Moulines, ha sido precisamente

la que ha dirigido la investigación y la que ha orientado este nuevo enfoque economicista dentro

de la política que constituye la TES. El postulado de la maximización de la utilidad es el eje

alrededor del cual giran todos los modelos que fueron analizados en el capítulo segundo.

En función de lo expuesto, podemos concluir que M (TES) f M (TCC), dado que la ley

fundamental se mantiene en todos los modelos de la teoría.

4.4. GC (TES) ff GC (TCC).

Dentro del núcleo, es decir, de las condiciones que afectan a la parte formal de las teorías,

nos queda por definir GC (TES) f GC (TCC), es decir, que las condiciones de ligadura de TES

son un subconjunto de las condiciones de ligadura de TCC. La única condición de ligadura

relevante que se ha establecido para la TCC es la constancia de la función de utilidad. Veremos

a continuación como ésta es fundamental también dentro del ámbito de la TES.

Cuando, de una manera informal, se describió como se igualan las relaciones marginales

de sustitución dentro de la TES, se afirmó que se construía el espacio de curvas de indiferencia

para la combinación bien público-contribución fiscal. Para los fines de aquella argumentación nos

bastaba con dicha afirmación. Pero, en realidad, lo que se hace es proyectar las curvas de

indiferencia construidas en el espacio bien privado-bien público al espacio bien público-impuesto.

Por decirlo de alguna manera, para saber el punto óptimo de distribución del bien público299 para

cada individuo, hemos de conocer primero sus curvas de indiferencia en el espacio bien privado-

CAPÍTULO IV

273

bien público. En cada una de estas curvas la utilidad se mantiene constante. En la curva más alta,

aquella tangente a la restricción presupuestaria, hay un punto que nos indica cuál es la

distribución de renta entre el bien privado y el bien público, que maximiza la utilidad del

individuo.

Dicha función de utilidad ha de mantenerse cuando las curvas de indiferencia son

proyectadas al espacio bien público-contribución fiscal, pues en caso contrario no dispondremos

de las herramientas necesarias ni para calcular la utilidad del individuo, ni para hacer ningún tipo

de predicción acerca de la cantidad del bien público óptima para él, ni del nivel impositivo que

estaría dispuesto a soportar. Esta es la forma en que la condición de ligadura -la constancia de la

función de utilidad- trabaja en el ámbito de ambas teorías. Luego GC (TES) f GC (TCC).

4.5. I (TES) ff I (TCC).

La quinta y última condición se refiere, no a la parte formal de ambas teorías, sino a sus

aplicaciones, al dominio empírico de ambas.

La forma de determinar las aplicaciones intencionales de la TCC, consiste en identificar

un sistema real donde exista un conjunto de agentes y un conjunto de bienes, y averiguar si con

una distribución inicial y una función de utilidad dada, se obtienen precios y cantidades que

cumpla la ley fundamental del sistema, la maximización de la utilidad. En el caso de la TES

podemos identificar cualquier sistema físico, pongamos por caso un comité municipal donde hay

una distribución inicial, es decir una situación social establecida en los términos de Arrow y los

individuos tienen una ordenación de preferencias, es decir una función de utilidad, acerca de las

distintas combinaciones de bienes públicos que son susceptibles de redistribuirse entre la

CAPÍTULO IV

274

comunidad. Recordemos que las aplicaciones intencionales han de ser formuladas en términos

de los modelos parciales de la teoría, es decir con el lenguaje TES- no teórico. A partir de aquí

si los individuos del comité maximizan su utilidad tendremos una distribución final óptima de

bienes públicos a precios de equilibrio. Todo lo que sabemos de la determinación de los precios

es que estos se establecen a través del sistema competitivo, en el ámbito de las elecciones sociales

toman la forma de proyectos y presupuestos entre varios oferentes uno de los cuales ha de ser

seleccionado por el comité.

La determinación de las aplicaciones intencionales en ambas teorías presenta algunos

problemas cuya discusión será aplazada hasta el próximo capítulo. Establecida en términos

genéricos una aplicación intencional de la teoría es todo sistema físico identificable en el que se

produce una elección sujeta a restricciones. A este nivel de generalidad podemos afirmar que las

aplicaciones intencionales de la TES son un subconjunto de las aplicaciones intencionales de la

TCC.

5. EL STATUS TEÓRICO DE LA TEORÍA DE LA ELECCIÓN SOCIAL.

Llegados a este punto, y en función de todo lo anteriormente expuesto, podemos concluir

que la Teoría de la Elección Social es una especialización teórica de la Teoría del

Comportamiento del Consumidor. Este resultado es de radical importancia, dado que nos permite

utilizar la noción de red teórica para clarificar, por un lado, la estructura conceptual de la teoría

de la elección social y, por otro, las relaciones interteóricas en el seno mismo de la TES.

Dentro de los modelos de la TCC se halla presente -de forma implícita- la función de

demanda de los individuos. Sencillamente, una función de demanda pone en relación precios de

CAPÍTULO IV

300 «...función de elección: se trata de una generalización directa de la función de demanda tal como apareceen la teoría de la elección del consumidor bajo competencia perfecta». ARROW, K.J., 1974, p. 74.

275

los bienes, cantidades demandadas y presupuesto, manteniéndose las condiciones de

racionalidad y maximización de la utilidad. Su equivalente dentro de la teoría de la elección social

sería la función de elección, que es exactamente análoga a ella.300 En la TCC, la demanda total se

define como el sumatorio de las demandas individuales. En la TES la agregación de la demanda

total viene mediada por una regla de votación, que ha de ser introducida por definición en cada

modelo y que no es otra cosa que la función de elección. La relación propuesta entre ambas

teorías, básicamente en lo que se refiere a la identificación de sus conceptos, nos permite aplicar

el aparato formal y matemático al campo de las elecciones sociales. Las funciones de elección,

como análogas a las funciones de demanda, poseen unas propiedades matemáticas que

posibilitan, en principio, afinar la predicción y explicación de los fenómenos implicados. La

noción de red teórica da cuenta del status de las distintas generalizaciones existentes acerca del

ámbito de fenómenos empíricos en la medida en que las leyes especiales refieren a ámbitos

reducidos de los mismos. Ello permite ir introduciendo grados de especificidad en el análisis

determinando, a su vez, el dominio de fenómenos empíricos para el que se establece, en el

sentido propuesto por el estructuralismo que estos forman parte de la identidad de la teoría.

La relación propuesta implica a su vez la reconstrucción estructural de la TES. El

desarrollo histórico de esta teoría se ha caracterizado, en buena medida, por la presentación de

modelos y teoremas aplicados al mismo ámbito de fenómenos pero que muchas veces no

parecían guardar relación entre sí ya que no quedaba claro, en la definición de los términos, si

referían o no a los mismos fenómenos. En este sentido creemos que un aspecto en el que resulta

CAPÍTULO IV

276

de gran rendimiento la concepción estructural, es en la delimitación del significado y uso de los

conceptos, así como de su status teórico. En el caso que nos ocupa nos referimos, por supuesto,

al concepto de utilidad. Al ser considerado un concepto t no-teórico, nos permite afirmar que el

conjunto de requisitos impuestos a las ordenaciones de preferencia, que pueden ser establecidos

en términos cardinales u ordinales, constituyen, en cierto sentido, una teoría independiente, pero

ligada a la TCC y a la TES por los vínculos interteóricos, una cuestión que no queda clara en las

exposiciones de los manuales de microeconomía donde se les incluye en la misma teoría. El

papel de estos vínculos es fundamental para dar cuenta del contenido empírico de la teoría.

Por otro lado, nos permite conceptualizar de forma precisa el principio de maximización

de la utilidad. Si nos ceñimos a la reconstrucción propuesta, el principio de maximización ya no

será un supuesto conceptual más o menos inherente a toda conducta humana que subyace a las

teorías, tanto a las estrictamente económicas como a las de elección social, sin una formulación

explícita. Podemos considerar la maximización de la utilidad como un principio- guía para la

investigación. Así considerado, parece dar cuenta de un rasgo fundamental de la teoría

económica ortodoxa; el que su eje fundamental -la maximización de la utilidad-, no tenga

contenido empírico y sea más una guía para la investigación que un postulado que deba cumplir

la conducta de los agentes.

Esto en lo que se refiere a la clarificación de la estructura conceptual. Respecto a las

relaciones interteóricas en el seno de la TES podemos decir, a modo de anécdota que la teoría de

Arrow, refiriéndonos estrictamente el Teorema General de Imposibilidad, no tiene modelos, dado

que las condiciones son inconsistentes entre sí, o más exactamente, la conjunción de estas

condiciones no tiene modelos. Precisamente parte de los desarrollos de la teoría de la elección

CAPÍTULO IV

301 Stegmüller define el progreso teórico como el refinamiento de la red de núcleos de elementos teóricos. VerSTEGMÜLLER, W., 1981, p. 51 y ss.

277

social tratan de encontrar modelos para la teoría debilitando o modificando las condiciones

impuestas. Esto es una forma de entender el progreso teórico, el refinamiento de la teoría a través

de sucesivas especificaciones o especializaciones.301 Ello permite unificar cuestiones y propuestas

de una forma mucho más fructífera que mediante la presentación de modelos aislados, tal como

han sido normalmente propuestos. Por otro lado el uso de reconstrucciones formales nos

permitiría formular vínculos con teorías establecidas que parecen tener una gran fuerza

explicativa como pueden ser los problemas de acción colectiva que se presentan en la provisión

de bienes públicos tal como han sido desarrollados a partir de las propuestas de M. Olson. De

esta forma, los vínculos interteóricos trasladarían la información de un elemento teórico a otro

y, resultados encontrados en un sistema, pueden ser relevantes para el estudio de sistemas

similares.

Son precisamente estos vínculos interteóricos, junto con las condiciones de ligadura que

‘atan' los diversos modelos y la existencia de especializaciones teóricas, las que proporcionan,

desde la visión estructural, contenido empírico a las teorías. Debido a ello, el próximo capítulo

estará guiado por la cuestión acerca del contenido empírico de la Teoría del Comportamiento del

Consumidor y, por tanto, del contenido empírico de la Teoría de la Elección Social.

«Los átomos de placer no son fáciles de distinguir y discernir;

más continuos que la arena, más discretos que el líquido;

por así decirlo, núcleos de lo justamente perceptible, incrustados en el ambiente que nos rodea (...)

No podemos contar las arenas doradas de la vida; no podemos numerar

‘la innumerable sonrisa’ de los mares del amor, pero sí parece que somos capaces

de observar que aquí hay una mayor, allí una menor,

multitud de unidades de placer, masa de felicidad,

y eso es suficiente».F. Edgeworth

CAPÍTULO V

279

Capítulo V.

A modo de conclusión. El mundo escapa de nuestras redes.

1. INTRODUCCIÓN.

En el capítulo anterior se lleva a cabo una reconstrucción estructural de la teoría del

comportamiento del consumidor y se concluye con la afirmación de que la TES es una

especialización teórica de la TCC, dado que cumple el conjunto de condiciones necesarias para

constituirse como tal. Esto no ha presentado problemas en lo que se refiere a la estructura de las

teorías y supone disponer de la estructura formal tanto de la TES como de la TCC. Una

consecuencia central es poder dirimir, en principio con precisión, el contenido empírico de ambas

teorías. Sin embargo, como veremos a lo largo de este capítulo, esto no va a resultar tan fácil.

El ámbito fundamental de problemas, cuya discusión pospusimos hasta el presente

capítulo, es la identificación de las aplicaciones intencionales de ambas teorías. Anteriormente

se estableció la especificación del conjunto I con un alto grado de amplitud, en el sentido de que

éste contendría cualquier posible situación, en la que el sujeto ha de hacer una elección sujeta a

restricciones. Pero bajo este grado de generalidad cuestiones importantes como la noción de

progreso empírico, como un incremento del conjunto de aplicaciones propuestas, resulta

CAPÍTULO V

302 Si no podemos identificar el conjunto I dentro de la TCC, no podremos establecer que las aplicacionesintencionales dentro de la TES sean un subconjunto de ellas.

280

trivializado.

Por tanto, vamos a analizar a qué se deben los problemas que se presentan para precisar

el conjunto de aplicaciones de la TCC.302 Es decir, establecer a qué sistemas físicos, a qué

parcelas de la realidad se aplica la teoría y cómo se establece la relación de la teoría con el mundo.

En primer lugar, formularemos, a niveles generales, cómo se define, desde la concepción

estructural, el contenido empírico de las teorías. Grosso modo, el contenido de una teoría es el

conjunto de modelos parciales que son compatibles con las leyes de la teoría, los vínculos

interteóricos y las restricciones intermodélicas, esto es, las condiciones de ligadura.

Las leyes de la teoría ya han sido analizadas en el capítulo anterior, por tanto, nos

centraremos en el papel de los vínculos interteóricos y las condiciones de ligadura, pero ya

referidas a la TCC en concreto.

El vínculo interteórico que se analizará, será el que se establece entre la teoría del

comportamiento del consumidor y la teoría de la utilidad esperada, en la medida en que esta

última proporciona el método de determinación o de medición del concepto central de la teoría,

la utilidad. La relación postulada entre ambas teorías será la de teorización.

En segundo, lugar se analizará la condición de ligadura para la función de utilidad.

Intentaremos establecer en qué medida se cumple y, en caso contrario, qué repercusiones tiene

su incumplimiento en la cuestión de la especificación de las aplicaciones intencionales.

Sabemos que ambas cuestiones resultan problemáticas para la TCC, lo que ha llevado a

algunos autores a plantear esta teoría más como una teoría pura -como una guía para la acción

práctica-, que como una teoría estrictamente empírica. Intentaremos dilucidar en qué sentido es

esto planteado, y en qué medida puede constituirse la TCC como una guía para la acción práctica.

Para finalizar, veremos cómo afecta toda esta problemática a la teoría de la elección social

y a la relación de especialización que ha sido propuesta.

CAPÍTULO V

303 Pero las aplicaciones intencionales no pueden ser completamente especificadas por métodos formales. Todavíaseguimos necesitando el método paradigmático de determinación.

281

2. EL CONTENIDO EMPÍRICO DE LAS TEORÍAS.

Hay dos métodos complementarios para determinar el conjunto de aplicaciones

pretendidas de las teorías: el método paradigmático que consiste en comenzar con algunos

ejemplos centrales de aplicación de la teoría e intentar agrandar ese conjunto en base a

consideraciones de similaridad, y el método de autodeterminación. Por medio de este último, se

deja al formalismo de la teoría determinar cuáles son sus aplicaciones. Para comprender el

método de autodeterminación es necesario recurrir al contenido de la teoría.

Si por un momento excluimos los modelos parciales, nos queda que el núcleo de la teoría

estaría constituído por K = <Mp, M, GC, GL>. Todos estos elementos están definidos en

relación a Mp. Así, M ⊆ Mp, GL ⊆ Mp, y GC ⊆ Po(Mp). Es decir, tanto los modelos efectivos

(M) como los vínculos interteóricos (GL), son subconjuntos de los modelos potenciales Mp. A

su vez la intersección de M y GL señala un nuevo subconjunto de Mp mucho más restringido.

Estas serían aquellas estructuras que son modelos de la teoría y cumplen los vínculos

interteóricos. Este subconjunto puede ser estrechado aún más, combinándolo con el subconjunto

GC ⊆ Po(Mp), lo cual nos proporcionaría el conjunto de aquellas estructuras que, además de ser

modelos de la teoría y cumplir los vínculos interteóricos, cumplen las condiciones de ligadura.

Esto será el contenido teórico de K, Cnth(K).

Del contenido teórico de K, han de ser recortados los términos teóricos, de forma que

obtengamos su contenido empírico, Cn(K), el cuál es un subconjunto de Po(Mpp). Por tanto, X

pertenece al contenido empírico de K, si existe una estructura teórica Y, de la cual pueden ser

recortados los términos teóricos, siendo Y un conjunto de modelos que cumple los vínculos

interteóricos y las condiciones de ligadura. De esta forma, el núcleo de una teoría puede ser usado

para señalar el conjunto de aplicaciones intencionales de esa teoría.303

La idea intuitiva es que los vínculos y las condiciones de ligadura sirven para distinguir

CAPÍTULO V

304 SNEED, J., «Micro-Economic Models of Problem Choice in Basic Science », Erkenntnis, vol. 30, 1989, pp.210.

282

aquellas estructuras que pueden ser aplicaciones de la teoría. Por ejemplo, una teoría T = < K, I>

no tiene contenido empírico si Cn(K) = Po(Mpp). Veamos qué significa esto:

Supongamos que tenemos Mp y Mpp. Mpp sería el conjunto de todas las aplicaciones

pretendidas de la teoría. Por tanto Po(Mpp), es el conjunto de todas las combinaciones posibles

de aplicaciones de tal teoría. Cada una de ellas es una candidata a convertirse en una aplicación

intencional. Para ello, se debe establecer si es posible aumentar los Mpp con los términos

teóricos, para convertirlos en modelos de la teoría que satisfagan además las restricciones y los

vínculos interteóricos. Normalmente, no todos los miembros de Mpp podrán ser ‘aumentados’

para conseguir esto. El papel de M, GL y GC es señalar el subconjunto de Po(Mpp), que cumple

todas las propiedades. Y el contenido empírico de la teoría es precisamente el efecto combinado

de leyes, condiciones de ligadura y vínculos interteóricos. Es más, la aserción empírica afirma

que I pertenece al contenido de K.

Nos referiremos a continuación a los vínculos interteóricos, y posteriormente

analizaremos las condiciones de ligadura.

3. VÍNCULOS INTERTEÓRICOS: TEORIZACIÓN.

Sneed afirma en relación a esta cuestión que: «Las aplicaciones pretendidas I de un

elemento teórico T= <K, I> son determinadas por los vínculos que circulan hacia T desde otros

elementos teóricos. Intuitivamente, esos vínculos proporcionan los datos acerca de los cuales T

es una teoría. En el lenguaje del empirismo lógico tradicional, proporcionan las interpretaciones

empíricas para algunas partes del vocabulario de K. En muchos casos, otras teorías T’ con

vínculos que van hacia T pueden ser vistas en el sentido de proporcionar los medios de medida

de los valores de las cantidades empíricas de K ».304

Estas teorías T’ a las que se refiere Sneed, aquellas que proporcionan los términos T no

teóricos a T, están unidas a T por una relación interteórica denominada teorización.

CAPÍTULO V

305 BALZER, W., MOULINES, C. y SNEED, J., 1987, p. 58.

283

La teorización es una relación interteórica que se da entre la teoría T* y la teoría T, cuando

T* proporciona los términos T no-teóricos a T. El término ‘proporciona’ se utiliza en el sentido

de plantear la existencia de un vínculo interteórico que liga ambas teorías y que se ocupa del

trasvase de información de la teoría T* a su teorización T. Este trasvase se da en la interpretación,

y en el mejor de los casos la medida, de los términos no-teóricos de los que hace uso la nueva

teoría.

Existen dos casos de teorización: teorización en sentido débil, cuando algunos de los

términos T no-teóricos provienen de T*, y teorización en sentido fuerte, cuando todos ellos

provienen de T*. El ejemplo más típico de teorización de la visión estructuralista, es afirmar que

la mecánica es una teorización de la cinemática, ya que determina los conceptos de distancia,

tiempo, velocidad y aceleración, sin los cuales no tiene sentido tratar de aplicar la mecánica. La

importancia de los vínculos interteóricos, que proporciona la relación de teorización, es que

determina los límites externos de aplicabilidad de la teoría.

Lo más importante aquí, es que tales vínculos son usados de forma implícita en cualquier

aplicación de la teoría, y que la única razón para no establecerlos explícitamente es que se

«asume que están bien establecidos en alguna otra teoría a la cual se presupone».305 Pero

pertenecen al núcleo teórico de la teoría y, por tanto, forman parte de su identidad. No se

establecen en el conjunto de axiomas que determinan los modelos actuales de la teoría, dado que

eso, por un lado, oscurecería su carácter interteórico y, por otro, supondría una redundancia,

dado que aparecerían en los modelos de ambas teorías.

Dicho en palabras de Díez y Moulines: «La idea básica es la siguiente: cuando T1 se

considera teorización de T0 es porque toda aplicación intencional x de T1 (es decir, toda estructura

que representa un ‘pedazo de realidad’ al que se pretende aplicar T1) tiene una subestructura y

‘determinada por T0’ en el sentido de que cumple sus leyes, esto es, y es un modelo actual de T0

CAPÍTULO V

306 DÍEZ, J. y MOULINES, C., 1997, p. 372.

307 BALZER, W., MOULINES, C. y SNEED, J., 1987, p. 161.

308 BALZER, W., 1997, p. 125.

284

(o parte de un modelo actual de T0) ».306

Ya es hora de que abandonemos el nivel general y nos ciñamos a la reconstrucción de la

TCC. Lo que se quiere plantear es que la TCC está unida a la Teoría de la Utilidad Esperada (en

adelante TUE), a través de una relación de especialización en sentido débil, en la medida en que

la TUE proporciona la determinación del concepto TCC no-teórico de utilidad. Nos ceñiremos

aquí a la teoría de la utilidad esperada, es decir, el enfoque de la utilidad marginal, dado que, por

un lado es la seleccionada por Balzer como método de medición en la reconstrucción que nos ha

venido sirviendo de guía y, por otro lado, como se señaló, ésta es un método de determinar la

utilidad más potente, matemáticamente hablando, que la representación por funciones ordinales.

La idea de considerar a la TUE como una teoría previa que proporciona los datos a la TCC

es sugerida tanto en Arquitectonic for Science, donde figura también la reconstrucción de la PEE

(TCC en nuestra terminología), como en Balzer (1997). En la primera los autores explícitamente

afirman: «PEE debe tener alguna teoría de las preferencias subyacente de cara a determinar sus

utilidades. Sin embargo, dado que la naturaleza de la teoría subyacente no está clara, dejaremos

la forma específica de este vínculo como una cuestión abierta».307 Por su parte Balzer (1997)

después de analizar la teoría de la utilidad propuesta por Von Neumann declara: «si existiese una

preteoría de ECO (TCC) establecida que clarificase el significado del beneficio o de la preferencia

de un modo satisfactorio, ECO se podría establecer sobre ella. Desgraciadamente no existe esta

preteoría».308 Pese a la postura de los autores, no queda otra opción, de cara a poder especificar

el dominio de aplicaciones pretendidas de la teoría, que intentar analizar esta relación, que

postularemos como una relación de teorización, dado que lo consideramos fundamental para

poder establecer con precisión el contenido empírico de la TCC y por tanto de la TES.

En el capítulo anterior se estableció la no-teoricidad del concepto de utilidad. Esto, grosso

CAPÍTULO V

309 Este conjunto de condiciones se establece para contextos de certeza, pero son igualmente presupuestos,aunque su tratamiento matemático varía para condiciones de incertidumbre; por tanto, nos ceñiremos aeste último contexto.

285

modo, significa que existe un método de medida, para este término, que no implica la TCC o en

otras palabras, que TCC no puede determinar el concepto de utilidad.

La utilidad es determinada a través de la escala de preferencias que subyace a la elección

de los consumidores. La determinación de la función de utilidad a través de la escala de

preferencias, se establecería, como vimos en el capítulo primero, de la siguiente forma. Para todo

x, y: xRy si U(y) ≤ U(x).

En las exposiciones de los manuales de microeconomía y, por tanto, en la exposición

‘ortodoxa’ de la teoría realizada en el capítulo primero, se puede observar que las condiciones

que restringen la estructura de preferencias, (básicamente transitividad, continuidad y

completud),309 forman parte de la teoría del comportamiento del consumidor. Como tal fueron

presentadas como axiomas I, II y V. ¿Cómo explicar que en la reconstrucción estructural de la

TCC planteada, estos axiomas desaparezcan?

Si se plantea una relación interteórica de especialización, estos axiomas pertenecerían a

la TUE, no a la TCC, pero en la medida en que la TUE es presupuesta por la TCC, los axiomas

de la TUE son usados implícitamente en la TCC, pero no aparecen en su reconstrucción.

Lo que haremos a continuación será precisamente estudiar las razones por las que, según

los autores, la TUE no puede constituirse como una pre-teoría de la TCC, en el sentido que

determine la medida del concepto central de la teoría: la utilidad. Recordemos que estamos en

el proceso de autodeterminación de las aplicaciones intencionales y que estás se identifican

mediante el formalismo de la teoría, es decir a través de sus restricciones legaliformes, sus

vínculos interteóricos y sus condiciones de ligadura. Los problemas planteados en este proceso

significan problemas en el contenido empírico de la teoría.

CAPÍTULO V

310 Duncan Luce y Howard Raiffa presentan un cuadro con hasta diez axiomas donde los diversos tratamientospreservan unos u otros axiomas en función del criterio de elección propuesto. LUCE, D y RAIFFA, H., «IndividualDecision Making Under Incertainty», en GÄRDENFORS, P. y SAHLIN, N., (eds.), 1988, pp. 48-79. Los que acontinuación se señalan se mantienen en prácticamente todas las teorizaciones, aunque muchas veces conrótulos distintos.

286

3.1. PROBLEMÁTICA GENERAL DE LA TEORÍA DE LA UTILIDAD ESPERADA.

Hemos establecido que la TCC es una teorización de la TUE, por tanto la teoría de la

utilidad es la encargada de suministrar la determinación del concepto de utilidad, es decir, en

cualquier sistema físico que identifiquemos como un modelo parcial de la la TCC es la teoría de

la utilidad la encargada de establecer la magnitud de la utilidad, o de forma más precisa, toda

aplicación intencional de TCC posee una subestructura que es un modelo efectivo de TUE.

3.1.1. LOS AXIOMAS FUNDAMENTALES DE LA TEORÍA DE LA UTILIDAD ESPERADA.

Muy a grandes rasgos, los modelos efectivos de la TUE estarían definidos por cuatro

axiomas fundamentales.310 La definición del predicado conjuntista, a niveles no formales, vendría

a decir: ‘x es un modelo de la TUE si se cumplen los axiomas de cancelación, transitividad,

dominancia e invarianza’. De forma muy resumida, cada uno de estos axiomas establece lo

siguiente:

- Cancelación: por medio de la cancelación se exige la eliminación de cualquier estado del mundo

que produce el mismo resultado, independientemente de la elección del agente. Equivale al

principio de cosa segura de Savage o al axioma de independencia de Von Neumann y

Morgenstern. (Véase cap.1, § 5)

- Transitividad: al igual que en contextos de certeza, el axioma exige la transitividad en la

ordenación de preferencias de los agentes. (Cap.1, § 2.1)

- Dominancia: si una opción es mejor que otra en un estado y al menos tan buena como la otra

en todos los demás estados, la opción dominante será la elegida. (Cap. 1, § 5.2. y 5.3.).

- Invarianza: diferentes representaciones del mismo problema de elección producirán la misma

preferencia.

CAPÍTULO V

311 En relación a esto ver GÓMEZ, A., «Cómo explicar las acciones racionalmente», Arbor, núm. 511-512, 1988,pp. 101-127; «Explicación en un mundo de actores», en CRUZ, M., Individuo, modernidad e historia. Madrid,Tecnos, 1993 y «Racionalidad, riesgo e incertidumbre en el desarrollo tecnológico» en LÓPEZ CEREZO, J.,LUJÁN, J., y GARCÍA PALACIOS, E., (eds.), Filosofía de la tecnología. Madrid, Teorema, 2001, pp. 169-187.

312 Ver capítulo I, § 5.

313 ELLSBERG, D., «Risk, Ambiguity and the Savage Axioms », en GARDENFORS, P. y SAHLIN, N., (eds.), 1988, 245-269. ALLAIS, M., «Le Comportement de l’Homme Rationnel Devant le Risque: Critique des Postulats etAxioms de l’Ecole Americaine». Econometrica, 1953, pp. 503-546.

314 Tomada de GÄRDENFORS, P. y SAHLINS, N., «Introduction: Bayesian Decision Theory - Foundations andProblems », en GÄRDENFORS, P. y SAHLIN, N., (eds.), 1988, p. 11.

287

Sin embargo, el cumplimiento de estos axiomas está seriamente amenazado.311

Dedicaremos nuestra atención, en primer lugar, al incumplimiento de los axiomas y, más tarde,

veremos las consecuencias que ello tiene para la especificación del dominio de aplicaciones

intencionales de la TCC.

Violaciones del axioma de cancelación.

La cancelación viene a ser el postulado A2 de Bayes visto en el capítulo primero,312 es

decir, la única información relevante al determinar el valor de las alternativas es la utilidad de los

posibles resultados de las alternativas y no, pongamos por caso, las probabilidades asignadas a

ella. Los deseos de los agentes determinan la utilidad de las alternativas, y las creencias acerca del

mundo, la probabilidad de los resultados. Esta propiedad también ha sido capturada formalmente

por el axioma de independencia de Von Neumann y Morgenstern y por el principio de cosa

segura de Savage.

Sin embargo este axioma está seriamente problematizado. Las investigaciones que

observaron por primera vez la violación de este postulado, se deben fundamentalmente a Allais

y Elsberg.313

La paradoja de Allais (1953), puede ser descrita por la siguiente matriz:314

CAPÍTULO V

315 Para la construcción de dichas curvas ver SÁNCHEZ MOLINERO, J. M. y SANTIAGO HERNANDO, R., 1998, pp. 136-138. El argumento queda más claro utilizando el enfoque de las curvas de indiferencia dado que aquí no esrelevante la escala utilizada.

288

P(s1)=0.01 P(s2)=0.10 P(s3)=0.89

a1 $500.000 $500.000 $500.000

a2 $0 $2.500.000 $500.000

a3 $500.000 $500.000 $0

a4 $0 $2.500.000 $0

Tabla XXII

Donde s1, s2 y s3 son los diversos estados del mundo, P la probabilidad asociada a su

ocurrencia y a1 y a2, a3 y a4, las posibles elecciones de los sujetos en dos situaciones distintas.

Esta matriz es prácticamente igual a la que utilizamos para mostrar el principio de cosa segura,

por tanto, si a1 es preferida a a2, a3 debe ser preferida a a4.

Sin embargo, en esta situación, la mayoría de los sujetos preferiría a1 a a2, dado que

encuentran que una probabilidad de un diez por ciento de ganar, por ejemplo, una gran fortuna

-en lugar de recibir una fortuna menor con certeza-, es bastante compensación del uno por ciento

de no ganar absolutamente nada.

Por otro lado, también una gran mayoría preferiría a4 a a3, ya que la oportunidad de ganar

es cercana en ambos juegos. De esta forma queda violado el principio de cosa segura, uno de los

teoremas básicos para fundamentar el axioma de cancelación y, por tanto el principio de

maximización de la utilidad esperada.. Se descubre que, lo único relevante en la elección, no es

la utilidad de los posibles resultados, sino también las probabilidades asociadas a las opciones.

Si se construyen las curvas de indiferencia,315 tenemos que a1 y a3 están en la misma curva

de indiferencia, por tanto, si a1 es preferible a a2, la teoría predice que a3 ha de ser preferible a a4.

La fuerza de la teoría radica en que las elecciones hechas en un contexto, pueden ser usadas para

inferir elecciones realizadas en contextos diferentes; para ello, se necesitan los postulados de

consistencia o racionalidad, uno de los cuales es el axioma de cancelación. Sin embargo, la

CAPÍTULO V

316 KAHNEMAN, D. y TVERSKY, A., «Prospect Theory: An Analysis of Decision under Risk ». Econometrica, 47,1979, pp. 263-291. El artículo describe varios estudios empíricos donde los axiomas de la teoría de la utilidadesperada son violados por las elecciones de los sujetos, se argumenta que dicha teoría no es un modelodescriptivo adecuado de la conducta de los sujetos y se propone una teoría alternativa. Este artículo ha sidoreeditado en GÄRDENFORS, P. y SAHLIN, N., 1988, pp. 183-213.

289

conducta de los agentes no parece ajustarse a semejante patrón.

En 1979, D. Kahneman y A. Tversky publican en Econometrica316 un trabajo de campo

realizado con estudiantes y universitarios a los que se sometía a problemas hipotéticos de

elecciones, intentando demostrar que la teoría de la utilidad esperada no es una adecuada

descripción del comportamiento humano. Los resultados de los experimentos, que se reproducen

a continuación, no sólo violan el axioma de cancelación, sino el teorema fundamental de la teoría,

que afirma que los agentes elegirán aquellas opciones cuya ‘utilidad esperada sea más alta’.

Intentaremos resumir los resultados de los autores, partiendo de un solo conjunto de

experimentos resumidos en la siguiente tabla:

POSITIVO NEGATIVO

A B A B

Problema 3

N = 95

(4000; 0.80)

20%

(3000)

80%

(-4000;0.80)

92%

(-3000)

8%

Problema 4

N = 95

(4000;0.20)

65%

(3000;0.25)

35%

(-4000;0.20)

42%

(-3000;0.25)

58%

Problema 7

N = 66

(3000;0.90)

86%

(6000;0.45)

14%

(-3000;0.90)

8%

(-6000;0.45)

92%

Problema 8.

N = 66

(3000;0.002)

27%

(6000;0.001)

73%

(-3000;0.002)

70%

(-6000;0.001)

30%

Tabla XXIII

En el experimento 3, de la elección entre 3.000 seguras y 4.000 con una probabilidad de

0.8, la mayoría (un 80%), eligió las 3.000 seguras, siendo la utilidad esperada de la apuesta mayor

que la de la ganancia segura, 3200 frente a 3000. Es lo que los autores denominan efecto

certidumbre, donde la utilidad de las alternativas no viene determinada exclusivamente por los

CAPÍTULO V

317 HANSSON, B., «Risk Aversion as a Problem of Conjoint Measurement », en GÄRDENFORS, P. y SAHLIN, N. Elcomienzo de este singular artículo desarrolla un diálogo entre un analista de toma de decisiones y un jugador.El jugador desea un libro que ‘casualmente’ el analista tiene (también ‘casualmente’ lleva varias copiasconsigo en ese momento). El analista propone al jugador una apuesta: una copia con seguridad o una apuestaen la que puede conseguir 0 ó 2 copias. La respuesta obvia del jugador es que prefiere una copia conseguridad. Incrementando el número de copias en juego el analista trata de convencer al jugador de que él esuna persona aversa al riesgo dada la concavidad de su función de utilidad para estas apuestas. (Recuérdese quela forma cóncava de la función venía determinada cuando el agente prefiere el equivalente cierto del juego ala apuesta).

290

deseos de los agentes, sino por las probabilidades de ocurrencia de los fenómenos. En estos

casos, los sujetos sobrevaloran los resultados que son ciertos frente a los meramente probables.

Por otro lado, cuando hay pérdidas implicadas (parte derecha de la tabla), la mayoría de

los sujetos reaccionaron exactamente en la forma contraria. Es lo que los autores denominan

efecto reflejo, que implica que la aversión al riesgo en el dominio positivo, es acompañado por

búsqueda de riesgo en el dominio negativo. Esto tiene importantes consecuencias, ya que la

forma de la función de utilidad ya no será cóncava, como postulaba la teoría de la utilidad, sino

cóncava en el dominio positivo y convexa en el negativo; por tanto, no se puede inferir la actitud

hacia el riesgo de los agentes a partir de la forma de la función de utilidad, como era postulado

por la teoría. Autores como B. Hansson, sostienen que una cosa es la aversión al riesgo y otra la

función de utilidad, y que la concavidad de la misma, puede ser explicada por otros factores,

como la saturación o el hecho de que existan bienes para los cuales sucesivas unidades no

aportan mayor utilidad al individuo que la primera unidad, es decir, la utilidad de estos bienes no

sería creciente.317 De todos modos seguimos sin ver explicados los fenómenos producidos por

el efecto reflejo.

Violación del axioma de transitividad.

En el terreno de la microeconomía, hay pocas referencias a elecciones individuales que

presenten patrones de preferencia intransitivo. La razón básica es que la elección es remitida a

cantidades de bienes, de forma que los sujetos ordenen las alternativas como si estuvieran

eligiendo entre cantidades en efectivo. La única concesión a la intransitividad dentro del

comportamiento individual, se produce cuando, en la elección entre un conjunto de alternativas,

CAPÍTULO V

318 ZAPATERO, J. C., 1987, p. 31. El autor narra el siguiente ejemplo: «Supongamos que tenemos que ordenar unconjunto de discotecas (A, B, ... Z) en razón del nivel sonoro de las mismas y que lo hacemos sin utilizarningún auxiliar técnico, sino fiándonos simplemente de nuestra capacidad auditiva; y supongamos tambiénque la diferencia ‘en decibelios’ entre cada dos discotecas consecutivas (A y B, ..., D y E...) es positiva (cadadiscoteca es un poco más ruidosa que la precedente) pero lo bastante pequeña como para que no pueda sercaptada por el oído humano. En tal caso tanto los amantes del ruido como quienes no lo son, ordenarán suspreferencias del modo siguiente (suponiendo claro está que las discotecas son idénticas en cualquier otroaspecto): AIB; BIC; ...; YIZ. Ahora bien, puede suceder que aunque la ‘diferencia decibélica’ entre cada dosdiscotecas consecutivas sea demasiado pequeña como para ser percibida, tal diferencia se haga manifiestacuando, por ejemplo, se compara la discoteca A con la L. En tal caso para los aficionados a los decibelios LPAmientras que los amantes de la paz y la naturaleza estimarán que APL. En ambos casos se habrá violado latransitividad de las preferencias».

319 BORCH, K., The Economic of Uncertainty. Princeton, Ed. Princeton University Press, 1968, p. 212.

320 LICHTENSTEIN, S. y SLOVIC, P., «Reversal of Preferences Between Bids and Choices in Gambling Decisions».Journal of Experimental Psichology, 89, 1971.

321 Tomado de SÁNCHEZ MOLINERO, J. R. y SANTIAGO HERNANDO, R., 1998, p. 144.

291

hay umbrales mínimos de discriminación.318

Por los capítulos uno y dos sabemos de la importancia de la condición de transitividad,

ya que a su base se encuentra, entre otras cosas, la posibilidad de compensación. Como afirma

K. Borch: «Una suposición básica ... es que cierto tipo de ‘intercambio’ siempre será posible.

Formalmente podemos expresar esto suponiendo el llamado Axioma de Arquímedes. Esto

significa en nuestro ejemplo que si tenemos (x1, y1) de preferencia sobre (x2 ,y2) siempre podemos

invertir la preferencia aumentando y2; es decir, existe un y > y2 de modo que (x2, y) de preferencia

sobre (x1, y1). Esto significa que una pérdida de algunas unidades de un artículo siempre puede

ser compensada por un aumento de algunas unidades de otro artículo o, dicho de otra manera,

todo tiene su precio».319

Los fenómenos de violación de la transitividad se producen, en el terreno de la TUE,

según Lichtenstein y Slovic,320 cuando a los sujetos se les ofrece una apuesta sobre dos

expectativas distintas y, una vez elegida una, deben asignar el equivalente cierto de ambas, es

decir, el precio mínimo por el que estarían dispuestos a renunciar a su participación en la apuesta.

El fenómeno de inversión de preferencias (preference reversal), se produce cuando asignan un

equivalente cierto menor a la alternativa elegida. Veámoslo con un ejemplo:321 Sean las apuesta

P = (X, 0; p, 1-p) y $ = (Y, 0; q, 1-q), ec(P) es el equivalente cierto de P y w la riqueza inicial del

CAPÍTULO V

322 KAHNEMAN, D. y TVERSKY, A., «Rational Choice and the Framing of Decisions », en COOK, K. y LEVI, M., (eds.),The Limits of Rationality. Chicago, Ed. University of Chicago Press, 1990, p. 74.

292

individuo. «El hecho observado es que un elevado porcentaje de individuos elige la apuesta P

pero asignan un equivalente cierto mayor a la apuesta $. De forma esquemática, el

comportamiento descrito supone la transgresión de la transitividad porque:

1) (w + X, w; p, 1-p) es indiferente a w + ec(P), por la propia definición de equivalente

cierto.

2) (w + Y, w; q, 1-q) es indiferente a w + ec($).

3) En los experimentos los individuos eligen la apuesta P. Esto es, muestran que (w + X,

w; p, 1-p) es preferible a (w + Y, w; q, 1-q).

4) A causa de la transitividad de la relación de preferencia, w + ec(P) debe ser preferido

a w + ec($).

5) De 4) se deduce que ec(P) > ec($), ya que la función de utilidad es creciente.

Sin embargo los resultados indican lo contrario a lo que exige este último punto».

Nuevamente, la posibilidad de realizar predicciones a partir de las elecciones del sujeto

se ve imposibilitada.

Violación del axioma de dominancia.

La dominancia establece que si una opción es mejor que otra en un estado, y al menos

igual en el resto de los estados, la opción dominante será la elegida. La dominancia es un

supuesto fundamental de la teoría de Von Neuman y Morgenstern y, en principio, no parece

probable que un elector racional viole este supuesto; sin embargo los estudios experimentales

afirman otra cosa. El experimento de Kahneman y Tversky322 consistía en la elección entre dos

loterías alternativas, descritas por el porcentaje de bolas de diferente color en cada caja,

dependiendo las ganancias o pérdidas, del color de una bola extraída al azar.

CAPÍTULO V

293

OPCIÓN A

90% blancas

gana 0$

6% rojas

gana 45$

1% verdes

gana 30$

1% azules

pierde 15$

2% amarillas

pierde 15$

OPCIÓN B

90% blancas

gana 0$

6% rojas

gana 45$

1% verdes

gana 45$

1% azules

pierde 10$

2% amarillas

pierde 15$

Tabla XXIV

En esta elección es claro que la opción B domina a la opción A y, efectivamente, todos

los encuestados eligieron B sobre A. El siguiente problema es idéntico al anterior, salvo que los

colores que producen resultados iguales (rojo y verde en B y amarillo y azul en A), son

combinados.

OPCIÓN C.

90% blancas

gana 0$

6% rojas

gana 45$

1% verdes

gana 30$

3% amarillas

pierde 15$

OPCION D

90% blancas

gana 0$

7% rojas

gana 45$

1% verdes

pierde 10$

2% amarillas

pierde 15$

Tabla XXV

De 124 participantes, un 58% eligió C. Evidentemente, C posee un mayor atractivo dado

que tiene un solo posible resultado negativo, mientras D tiene dos. Pero D domina a C, es decir,

D es mejor altlernativa. Esto quiere decir que los sujetos no fueron capaces de detectar la

dominancia en un problema con los mismos pagos que el anterior, donde sí la detectaron, ya que

ésta no era obvia.

CAPÍTULO V

323 KAHNEMAN, D. y TVERSKY, A., en COOK, K. y LEVI, M., (Eds.), 1990, pp. 63-64. Seguiremos a estos en laexposición del ejemplo.

294

Violaciones de la invarianza.

Fundamentalmente, se trata de que las elecciones hechas entre un conjunto de

alternativas, dependen de los miembros de ese conjunto, y no de cómo se presenten las

alternativas o el lenguaje que se use para ello. Pero, curiosamente vemos que no ocurre así. Los

resultados del experimento son tan sorprendentes, que vale la pena intentar reproducirlo

brevemente aquí. El ejemplo lo extraen los autores323 de un artículo publicado en el New England

Journal of Medicine, bajo el título «On the Elicitacion of Preferences for Alternative Therapies»

realizado por McNeil y otros. En este estudio se les proporcionó a los encuestados información

estadística acerca de dos tratamientos de cáncer de pulmón. A algunos encuestados se les

presentaba en términos de tasas de mortalidad y a otros en términos de tasas de supervivencia.

Los datos de la estadística de supervivencia eran los siguientes:

Cirugía: De 100 personas a las que se interviene quirúrgicamente, 90 superan el período

post operatorio, 68 sobreviven al primer año, y 34 están vivos al cabo de cinco años.

Terapia de radiación: De 100 personas a las que se les aplica terapia de radiación, todos

sobreviven al tratamiento, 77 están vivos al final del primer año y 22 están vivos al cabo de cinco

años.

Los datos de la estructura en términos de mortalidad eran:

Cirugía: De 100 personas a las que se interviene quirúrgicamente 10 mueren durante la

operación o el período post operatorio, 32 mueren antes de que finalice el primer año, y 66

mueren al cabo de cinco años.

Terapia de radiación: De 100 personas a las que se les aplica terapia de radiación, ninguna

muere durante el tratamiento, 23 mueren al final del primer año y 78 mueren al cabo de cinco

años.

La diferencia en presentación, aunque no afectaba a los datos, produjo un marcado efecto.

CAPÍTULO V

324 Como ya se señaló, los datos están extraídos de KAHNEMAN, D. y TVERSKY, A., en COOK, K. y LEVI, M., (Eds.),1990, pp. 63. Imaginamos que se ha producido un error de transcripción en las cifras de los experimentos.Desgraciadamente, ha sido imposible localizar el artículo original. Lo que desde luego no es posible es que,en la estructura de mortalidad, comencemos con 100 pacientes y acabemos con 108 y 101 en los respectivostratamientos. Pese al error, creemos que ilustra de forma bastante exacta lo que constituye la violación delaxioma de invarianza y, en función de eso, se ha transcrito. También es posible que no exista tal error. Losautores afirman, en nota a pie de página, haber transcrito exactamente el texto original que fue presentado alos encuestados. Si no hay error de transcripción, no sólo tenemos violación de la invarianza, sino también unproblema de simple aritmética por parte de los experimentadores.

295

El porcentaje en conjunto de encuestados que favoreció la terapia de radiación se alzó de un 18%,

según la estadística presentada en términos de supervivencia (N=247), a un 44% en la estructura

de mortalidad (N=336). Evidentemente, la ventaja de la terapia de radiación sobre la cirugía se

agranda cuando se establece como una reducción del riesgo de muerte inmediata desde un 10%

a un 0% más bien que como un incremento de un 9 a un 100% en la tasa de supervivencia.324

Experimentos realizados con resultados monetarios demuestran que las violaciones de

la invarianza implican violaciones de la dominancia. Los sujetos eligen alternativas que son

dominadas por otras. Esto tiene consecuencias importantes en economía, por ejemplo el axioma

de invarianza garantiza que el sujeto no sufra de ilusión monetaria, una de las condiciones para

poder definir una función de demanda; si el agente ve incrementado su salario en, digamos, un

3.5% anual y el I.P.C sufre el mismo aumento, el individuo no aumenta su capacidad adquisitiva

y lo sabe. Los fenómenos de estructuración señalados, a saber violación de la dominancia y la

invarianza, favorecen que el individuo sufra ilusión monetaria, es decir, que considere ese 3.5%

de incremento como un aumento de riqueza.

3.1.2. LOS MODELOS DE LA TEORÍA DE LA UTILIDAD ESPERADA.

El conjunto de estudios experimentales reseñados, muestran:

- que, en contra de lo establecido por la TUE, las elecciones de los sujetos no dependen, única

y exlusicamente de la utilidad de las alternativas y las probabilidades asignadas a su ocurrencia,

que dependen asimismo de las cantidades en juego y de la actitud hacia el riesgo de los sujetos,

- que los fenómenos de inversión de preferencias pueden conducir a elecciones cíclicas o

intransitivas,

CAPÍTULO V

325 Para un estudio de las limitaciones en las capacidades computacionales de los agentes de cara a cumplir losrequisitos de la denominada ‘racionalidad económica’ véase SIMON, H., 1957; SIMON, H., 1997; Ver también delmismo autor «Rationality as Process and as Product of Thought ». American Economic Review, Vol. 68, nº 2,1978, pp. 1-16. Dos útiles compilaciones sobre el tema son: EGIDI, M. y MARRIS, R., (Eds.), Economics, BoundedRationality and the Cognitive Revolution. Aldershot, Ed. Edward Elgar, 1992 y HOGARTH, R. y REDER, M.,(Eds.), Rational Choice. The Contrast between Economics and Psychology. Chicago, Ed. University ofChicago Press, 1987.

326 DÍEZ, J. y MOULINES, C., 1997, p. 372.

296

- que la capacidad de procesamiento de la información325 por parte de los agentes, no les permite

detectar la dominancia de las alternativas cuando esta no es obvia,

- que distintas formas de estructurar el mismo problema de elección llevan a una selección de

alternativas diferente en cada caso.

Todo esto conduce a la dificultad en la identificación de los modelos de la TUE. A riesgo

de parecer repetitivos recordemos que : «cuando T1 se considera teorización de T0 es porque toda

aplicación intencional x de T1 (es decir, toda estructura que representa un ‘pedazo de realidad’

al que se pretende aplicar T1) tiene una subestructura y ‘determinada por T0’ en el sentido de que

cumple sus leyes, esto es, y es un modelo actual de T0 (o parte de un modelo actual de T0)».326

Traducido a nuestros elementos teóricos tenemos que las aplicaciones intencionales de la TCC

tienen una subestructura que son modelos de la teoría de la utilidad esperada, es decir, que

cumple sus leyes o axiomas. Si no hay modelos de la TUE existen serios problemas para

identificar aquellos sistemas reales que son aplicaciones de la TCC, porque esos sistemas reales

han de ser modelos de la teoría de la utilidad esperada. Los estudios experimentales no permiten

afirmar que los axiomas de la TUE no se cumplan en absoluto. Por los resultados de los

experimentos, sabemos que una proporción de sujetos, aunque mínima, cumplía lo afirmado por

la teoría. Se cumplen, por ejemplo, en situaciones transparentes donde la dominancia es clara.

Ello tiene como consecuencia que las aplicaciones intencionales de la TCC se ven restringidas

a este tipo de situaciones con lo que el campo de aplicaciones pretendidas se reduce en gran

medida.

La dinámica de aplicación de la TCC sería: dado un conjunto de agentes, un conjunto de

CAPÍTULO V

327 Un desarrollo de la teoría de la elección social es el modelo presentado por A. Downs donde utiliza lasherramientas conceptuales de la economía en un análisis de la democracia en función de la oferta y demandade votos. Significativamente la constancia de la función de utilidd es uno de los postulados propuestos en sumodelo como definitorio de la conducta racional. DOWNS, A., Una teoría económica de la democracia.Madrid, Ed. Aguilar, 1973, p. 6.

297

clases de bienes, una función de utilidad y una distribución inicial, es decir, dado un Mpp de

TCC, se trataría de calcular o predecir la cantidad de mercancías que se intercambiarán con tal

de que el sistema alcance el equilibrio, o, dada la función de utilidad y una distribución inicial se

calculan o predicen los precios de equilibrio. En esta dinámica, lo que se hace es aumentar los

Mpp con los términos TCC teóricos, precios y distribuciones de equilibrio, de forma que se

pueda constatar que se cumplen las leyes de la teoría, es decir, que contamos con modelos de

TCC. Nada de esto es posible si el vínculo interteórico entre la TUE y la TCC no se cumple,

porque la función de utilidad, que se supone determinada, no da cuenta de las elecciones reales

de los agentes.

4. CONDICIÓN DE LIGADURA: LA CONSTANCIA DE LA FUNCIÓN DE UTILIDAD.

Como se señaló más arriba, X pertenece al contenido empírico de K si existe una

estructura teórica Y de la cual pueden ser recortados los términos teóricos, siendo Y un conjunto

de modelos que cumple los vínculos interteóricos y las condiciones de ligadura. La condición de

ligadura es, dentro de la reconstrucción de Balzer, la constancia de la función de utilidad. Esto,

en términos preteóricos, vendría a decir que el individuo adopta la misma decisión siempre que

se enfrenta con las mismas opciones.327

La constancia de la función de utilidad ha sido normalmente formulada como una

cláusula ceteris paribus, más o menos inespecífica y más o menos ineliminable, que acompaña

a las hipótesis de la teoría. El contenido de la cláusula que suele acompañar a, pongamos por

caso, el postulado de una distribución de equilibrio, sería: «siempre que otros precios, gustos e

ingresos no cambien». Es más, cambios en la conducta, que denotan cambios en la estructura de

preferencias subyacente, son explicados en términos de cambios de precios o cambios en el

CAPÍTULO V

328 GREEN, H. A. JOHN, 1986, p. 24 y ss.

298

ingreso de los consumidores. Sin embargo la función de utilidad impone que los gustos

permanecen estables en el tiempo.

La condición de ligadura es la encargada de ‘transportar’ la información de un modelo

a otro, o de una aplicación a otra, siempre que haya un individuo común a los dominios de

ambos modelos. La función de utilidad ha de tener el mismo valor en ambos dominios, si los

objetos de elección son los mismos. ¿Cuál es la importancia de que la función de utilidad se

mantuviera constante? Que ello permitiría averiguar la función de utilidad de los individuos bajo

diferentes sistemas con distintas cantidades de mercancías, por el sencillo procedimiento de

presuponerlo de un sistema a otro. Pero no es posible presuponerlos si no se mantienen

constantes. En este caso, dispondríamos únicamente de una serie de modelos aislados sin

ninguna conexión entre sí, dado que la única condición de ligadura propuesta es la constancia

de la función de utilidad. Es decir, se postularían modelos distintos para cada situación de

elección y para el mismo individuo o individuos, lo cual quiere decir que no se puede extrapolar

la información de un modelo a otro, ni se pueden utilizar las mediciones de los valores obtenidos

para un modelo en la determinación de los valores en un modelo distinto. Es como si el planeta

Tierra tuviera una masa distinta en cada una de las aplicaciones pretendidas de la física. Todo ello

se agrava, si como vimos en los apartados anteriores, existen problemas para determinar la

función de utilidad.

Muchos economistas han intentado explicar los cambios en la función de utiliidad pero

siempre como endógenos al sistema. Por ejemplo Green328 enumera tres posibles razones para

que se produzcan cambios en los órdenes de preferencia: la publicidad, explicada como un

aumento de la información de la que dispone el consumidor, las elecciones de otros

consumidores, explicadas mediante el efecto esnobismo y el efecto del carro triunfal y los

precios, explicados como un indicador, para el consumidor, de la calidad del producto. R.

CAPÍTULO V

329 POLLAK, R., «Endogenous Tastes in Demand and Welfare Analysis». American Economic Review, Vol. 68, nº2, 1978, pp. 374-377.

330 STIGLER, G. y BECKER, G., «De Gustibus Non Est Disputandum». American Economic Review, Vol. 67, nº 2,1977, pp.76-90.

331 Ibídem, p. 76.

299

Pollak329 también explica cambios en las preferencias de los consumidores, como la formación

de hábitos y la interdependencia de las preferencias, como endógenas al sistema. Pero, tal vez,

la postura más extrema corresponda a G. Stigler y G. Becker,330 que llegan incluso a eliminar la

cláusula ceteris paribus, no especificándola, sino considerándola superflua: «La tarea central de

este ensayo es el establecimiento de la proposición que uno podría útilmente tratar los gustos

como estables en el tiempo y similares entre la gente (...) estamos proponiendo la hipótesis que

la conducta humana, general y/o persistente, puede ser explicada por un cálculo generalizado de

conducta maximizadora de la utilidad sin introducir la cualificación ‘los gustos permanecen

iguales’».331

Es evidente que la función de utilidad no permanece constante, y también es cierto que

algunas veces este hecho puede ser explicado como una respuesta al cambio de las variables del

sistema, pero además hay cambios que no quedan recogidos en los supuestos analizados en la

literatura económica y que no parecen responder a cambios en ninguna de las variables recogidas

en un sistema económico. De la problemática de la TUE analizada más arriba, la inversión de

preferencias y, especialmente, la violación del axioma de invarianza, constituyen ejemplos claros

de cambios en los órdenes de preferencia que no dependen del tiempo, de la publicidad o de

cualquiera de las razones aducidas. La explicación de estos fenómenos, se da en términos de

fallos en el procesamiento de la información estadística por parte de los agentes, o en términos

de preferencia o aversión por el riesgo, según nos situemos en un contexto positivo -ganancias-,

o negativo -pérdidas-. Lo que explicaría, en estos contextos, los cambios en la función de utilidad

serían variables psicológicas que los practicantes de la economía siempre han querido mantener

fuera del análisis.

CAPÍTULO V

332 Aquí hay una primera conceptualización del sistema físico en términos de la teoría, pero siempre utilizandoel vocabulario T no-teórico.

300

Esto resta contenido empírico a la teoría dado que difiulta de manera extrema su

aplicación a sistemas reales. El campo de aplicaciones intencionales, y con ella el contenido

empírico de la teoría, se reduce a aquellas situaciones donde la función de utilidad permanece

constante.

5. LA IDENTIFICACIÓN DE LAS APLICACIONES INTENCIONALES.

Como se ha venido señalando, hay dos métodos de especificación del conjunto de

aplicaciones intencionales de una teoría. El método de autodeterminación, por el cual es el propio

formalismo de la teoría el que determina su base empírica, y el método paradigmático.

Es el primero de estos métodos el que ha sido objeto de atención a lo largo del presente

capítulo; se trata de identificar cierta subestructura, un modelo parcial de la teoría,332 y ver si

puede ser aumentado por medio de los términos teóricos, con el objetivo de analizar si cumplen

las leyes de la teoría, los vínculos interteóricos y las condiciones de ligadura.

Por tanto, deberemos identificar un sistema físico, donde podamos distinguir un conjunto

de agentes, cada uno de los cuales posee una función de utilidad, un conjunto de bienes y una

distribución inicial de esos bienes. A continuación debemos preguntarnos si esos modelos

parciales pueden ser aumentados mediante los términos teóricos de la TCC. Es decir, debemos

buscar una estructura representada por <J, G, p, qi, qf, U>.

Pero ambos métodos son complementarios; las aplicaciones intencionales no pueden ser

seleccionadas única y exclusivamente atendiendo al formalismo de la teoría. Existe un

componente pragmático e intencional en la identificación de los sistemas físicos -que pueden ser

conceptualizados mediante los modelos parciales-. Este componente intencional es decisional:

se refiere a la práctica de los científicos que han de seleccionar el sistema empírico que se

pretende que cumple las restricciones de la teoría. Para ello, se recurre a las aplicaciones

paradigmáticas, es decir, a los primeros usos exitosos de la teoría y, a través de una relación de

CAPÍTULO V

333 BALZER, W., 1997, p. 126. Afirmaciones en esta línea se encuentran en BALZER, W., MOULINES, U. y SNEED, J.,1987, p. 161, BALZER, W., 1982, p. 41, HANDLER, E., «The Logical Structure of Modern Neoclassical StaticMicroeconomic Equilibrium Theory». Erkenntnis, 15, 1980, pp. 50-51, o HANDS, D. W., 1985, p. 329.

301

similaridad, se establece qué otros sistemas empíricos pueden constituirse como aplicaciones.

El método paradigmático tampocose halla exento de problemas en lo que a su aplicación

a la TCC se refiere, esto es así dada la dificultad para establecer las aplicaciones paradigmáticas

de la teoría, esto es, la determinación de sistemas empíricos de los que se pueda afirmar que son

modelos de la teoría.

En la teorización de Balzer, ECO (TCC) se aplica a determinadas sociedades pequeñas.

Pero como él mismo afirma, la representación presentada más arriba (<J, G, p, qi, qf, U>), no es

aplicable a toda sociedad pequeña. No sería aplicable a una pequeña sociedad agrícola que

trabaja conjuntamente los campos y donde los frutos de la cosecha son reunidos y después

repartidos igualitariamente, ya que aquí no juega ningún papel el principio de maximización de

beneficio. Pero esto no queda reflejado atendiendo únicamente a la estructura señalada.

Por otro lado se habla de sociedades pequeñas. Qué tamaño ha de tener la sociedad para

poder aplicar los axiomas de TCC, o cuándo entran en juego otros factores económicos y de qué

dependen. Esta es una pregunta para la que no se ha encontrado respuesta. Siguiendo una vez

más a Balzer: «No se ha logrado decir general y sistemáticamente a qué sociedades reales se

aplican los axiomas de la economía de trueque ... no se ha logrado suministrar una descripción

independiente de la economía de trueque que capte exactamente todos los sistemas económicos

que luego resultan ser economías de trueque».333

De ahí que el método de autodeterminación haya de ser completado con el método

paradigmático que hace referencia al componente intencional de la comunidad científica para

seleccionar aquellos sistemas que son modelos de la teoría y a los que se pretende aplicarla. Una

vez seleccionados se establece en resto del conjunto I en base a relaciones de similaridad. Lo que

no parece existir es mucho acuerdo entre los teóricos acerca de cuáles son las aplicaciones

paradigmáticas de la teoría, esos primeros usos exitosos a partir de los cuales podemos establecer

CAPÍTULO V

334 HÄNDLER, E., 1980, p. 51.

302

paradigmáticamente el resto del conjunto I.

6. CONCLUSIÓN.

La relación de teorización propuesta entre la TCC y la TUE nos permite identificar la

procedencia de la problemática que se refiere al contenido empírico de la teoría del

comportamiento del consumidor. Esta problemática parece ceñirse a la determinación de la

magnitud de U. Volvamos por un momento a la Paradoja de Allais, desarrollada para mostrar la

violación del axioma de cancelación. En este ejemplo habría una función de utilidad establecida

y una distribución de bienes. El sujeto ha elegido a1 sobre a2, por tanto Ua1 > Ua2, es decir hemos

establecido la función de utilidad del individuo para dos estados del mundo o para dos posibles

distribuciones de bienes. Tenemos por tanto un sistema físico conceptualizado en términos de

un modelo parcial posible de la TCC. Si este modelo parcial es aumentado con la ley fundamental

de la teoría del comportamiento del consumidor, que afirma que los sujetos eligen aquella opción

cuya utilidad es máxima y se presupone la constancia de la función de utilidad, que en este

contexto implica Ua1 = Ua3, podemos predecir que el individuo elegirá a3 sobre a4 dado que Ua3

> Ua4. Pero nos encontramos con que esto no es así. Esta aplicación no es un modelo de la teoría.

Lo mismo ocurre con cualquiera de los estudios experimentales reseñados (§ 2.1.1.) que

demostraban el incumplimiento de los axiomas de la TUE. Las aplicaciones pretendidas

establecidas en función de ellos no son modelos de la TCC, con lo que el campo de aplicaciones

se reduce en gran medida.

Ello ha llevado a algunos autores a la postura extrema de afirmar que la TCC no tiene

aplicaciones intencionales y carece por tanto de contenido empírico. En esta línea, E. Händler334

plantea la reconstrucción de la teoría microeconómica del equilibrio como una teoría pura, que

no tiene asociada a ella ningún elemento empírico. «De este modo, un elemento teórico puro es

una 4-tupla (Mp, M, C, A), los primeros tres componentes representan los elementos de la

CAPÍTULO V

335 Ibídem, p. 44.

336 La caracterización corresponde a HÄNDLER, E., 1980, p. 51.

303

estructura, siendo A el conjunto de aplicaciones de esta estructura: A es un conjunto de sistemas

económicos descrito por ejemplos paradigmáticos en la literatura estándar que no refieren a

mundos posibles realmente existentes».

Si analizamos la estructura propuesta por Händler, vemos que los modelos parciales han

desaparecido, ya que, si no se postulan aplicaciones empíricas, no tiene sentido diferenciar entre

el vocabulario teórico y no-teórico de la teoría en cuestión. Llama la atención, sin embargo, que

Händler siga manteniendo, dentro de la definición del predicado, la existencia de C, es decir, de

las condiciones de ligadura, dado que unas páginas atrás afirmaba que la teoría no exhibe

ninguna condición de ligadura.335 En cuanto al conjunto A de aplicaciones paradigmáticas, se

corresponde no con las primeras aplicaciones exitosas de la teoría, sino con los modelos

construidos en los libros de texto y la literatura al uso.

En función de lo anterior, la relación de especialización quedaría caracterizada336 como

sigue: Si T = <Mp, M, C, A> y T ’= <M’p, M’, C’, A’> son elementos teóricos puros entonces

T’ es una especialización de T si y sólo si M’p = Mp; M’ ⊆ M; C’ ⊆ C y A’ ⊆ A. Bajo este

enfoque la teoría de la elección social tampoco contaría con aplicaciones intencionales y por

tanto carecería de contenido empírico.

Balzer matiza un poco más la cuestión:

«Esta falta de éxito empírico puede haber llevado a que la economía de trueque y todas

sus versiones en las que es central el concepto de beneficio se emplearan y se empleen más como

teorías ‘puras’ y menos como teorías con aplicaciones prácticas. Por teoría pura vamos a

entender una teoría que de antemano no tiene como meta describir y explicar aplicaciones

intencionales concretas. Su objetivo consiste más bien en desarrollar un cuadro teórico que

estructure de un modo útil e interesante un determinado ámbito de fenómenos. Cuando se

estudia la historia de la economía de trueque y, más genéricamente de la teoría del beneficio, rara

CAPÍTULO V

337 BALZER, W., 1997, p. 133.

338 A este respecto ver LEONTIEF, W., «Theoretical Assumptions and Non Observed Facts». American EconomicReview, Vol. LXI, 1971.

304

vez se encuentran aplicaciones en sistemas económicos concretos. En lugar de ello, la mayoría

de las veces se demuestran teoremas interesantes. Las argumentaciones en favor o en contra de

la corrección de la teoría proceden rara vez de investigaciones empíricas, de datos reunidos o

medidos, sino que se refieren a la generalidad, plausibilidad y elegancia de tales teoremas. Parece

por ello oportuno emplear también junto al concepto de teoría empírica el concepto de teoría

pura (...) La palabra ‘teoría pura’ no tiene que producir necesariamente un regusto negativo.

También las teorías puras tienen su objetivo, a saber, proporcionar un cuadro o modelo sencillos,

determinados, de una situación social, con los que se pueda orientar la acción práctica».337

La cita de Balzer está inserta en el tratamiento acerca de la identidad entre los modelos

de la teoría y los sistemas físicos reales que se pretenden modelos de la teoría y es obvio que la

relación no es de identidad sino de aproximación. Es decir, no tiene sentido establecer una

relación de identidad entre dos objetos de naturaleza tan dispar como modelos de datos y

modelos físicos. La medida en que unos se aproximan a otros puede ser determinada, para

cualquier teoría, numéricamente. Es obvio que dentro de la TCC, dada la dificultad en la

recolección de datos, el intervalo admitido como margen de error entre el modelo y los datos es

muy amplio, lo que se traduce en dificultades para establecer la falsedad de la afirmación

empírica. De esto podemos concluir que los modelos están fuertemente idealizados, que son

aproximaciones a la realidad y que se admite un margen de error muy amplio, pero creemos que

de ello no se deduce que la teoría, o mejor, los practicantes de la disciplina , no tengan como

meta describir y explicar aplicaciones intencionales concretas. Esto es tanto como decir que a los

economistas no les interesa explicar o describir la realidad. Es cierto que el desarrollo de la

disciplina se ha caracterizado por un progresivo deslizamiento hacia el ámbito formal338 y cierta

desconsideración por lo empírico, pero no creemos que la actitud general de la comunidad de

economistas pueda ser deducida en función de las dificultades en la recolección de datos y de un

CAPÍTULO V

339 MOULINES, U., 1982, p. 106.

305

margen de error alto en la adecuación modelos físicos-modelos de datos. Esta clarificación nos

parece importante dado el componente intencional que existe en la identificación y selección de

las aplicaciones intencionales.

Las siguientes afirmaciones de Balzer, recogidas en la cita, parecen orientar el significado

de teoría pura en otra dirección: «como un cuadro teórico que estructure de modo útil e

interesante un determinado ámbito de fenómenos». Esto sugiere una interpretación en términos

de los principio-guía propuestos por U. Moulines. La característica fundamental de los principios-

guía es que son «... empíricamente irrestrictos y, por tanto, irrefutables por la experiencia (...) si

adoptamos el esquema conceptual general propuesto por el principio-guía, a la larga, y con la

suficiente paciencia y habilidad, obtendremos los resultados empíricos apetecidos. La promesa

es limitada al principio-guía, muy vaga e indeterminada; pero define la estructura general dentro

de la que hay que buscar los parámetros y funcionales requeridos para tratar cualquier caso

particular».339 En este sentido la teoría del comportamiento del consumidor sería una teoría cuyo

desarrollo es sobre todo formal y matemático pero con pretensiones empíricas aunque estas sean,

como hemos visto, sumamente problemáticas.

Evidentemente esto no nos libra de la necesidad de responder a la pregunta por el

contenido empírico de la teoría del comportamiento del consumidor dado que una de las

cuestiones que guiaba este trabajo era la medida en que la exportación de los modelos de la teoría

del comportamiento del consumidor resultaba fructífera en el ámbito de la elección social. Por

fructífera se entiende mejoras en la capacidad explicativa y predictiva en esta área, y no podemos

responder a ello sin dar una respuesta a la cuestión del contenido empírico de la TCC.

La reconstrucción estructural nos ha proporcionado la clarificación necesaria para situar

de modo preciso la problemática. Esta se halla localizada en la teoría de la utilidad esperada. Los

estudios experimentales nos muestran las características de las situaciones en las que es

imposible determinar la utilidad, es decir, situaciones no transparentes donde la dominancia de

CAPÍTULO V

340 Aquí tal vez sí podamos hablar del componente intencional de la comunidad en el sentido de que no pretendenaplicar la teoría a la realidad sino estructurar un conjunto de fenómenos. Esto sería una hipótesis empírica quenecesita de investigación.

306

las alternativa no es clara; situaciones donde las combinaciones de probabilidades parece exigir

más capacidades computacionales de las que los individuos poseen; situaciones donde la

percepción del riesgo es altamente subjetiva y depende, por tanto, de cómo haya sido formulado

el problema de elección. Al mismo tiempo nos ha mostrado las situaciones donde sí se cumplen

los axiomas, donde sí podemos encontrar modelos efectivos de la TUE que luego nos sirvan para

establecer las aplicaciones intencionales de la TCC. Sabemos que este rango de situaciones es

bastante reducido, lo cual implica que la TCC tendrá pocas aplicaciones intencionales y poco

contenido empírico, pero ‘poco’ no es ‘ninguno’.

¿Qué consecuencias tiene esto para la teoría de la elección social? Es obvio que los

problemas de contenido empírico se trasladas a la TES aunque sólo sea porque, formalmente, y

considerado en términos de especialización, el conjunto de aplicaciones intencionales de TES es

un subconjunto del conjunto de aplicaciones intencionales de TCC. Dentro de la teoría de la

elección social los autores parecen más preocupados340 por el establecimiento de las condiciones

formales necesarias para poder establecer una función de bienestar social que por la investigación

de las funciones de utilidad individual respecto al bienestar social y sus posibilidades de

determinación. Si recordamos las vías de escape que se proponían al Teorema de Imposibilidad

de Arrow en forma de restricciones a las ordenaciones de preferencia, vemos que los postulados

acerca de tales restricciones no estaban guiados por ninguna consideración empírica, sino por el

objetivo de salvar la inconsistencia lógica de las condiciones suministradas por Arrow. Es más

que dudoso que podamos encontrar ninguna aplicación intencional, dentro de la TES, que tenga

como componente preferencias dicotómicas o preferencias eco. Lo mismo puede decirse de las

propuestas de Sen o Harsanyi. El análisis de este último se ve especialmente afectado por la

problemática de la TUE, ya que la construcción de funciones de bienestar basadas en la

axiomática de Von Neumann y Morgenstern es condición necesaria para el establecimiento de

CAPÍTULO V

341 DOWNS, A., 1973.

342 OLSON, M., 1992. Se entiende a ambas teorías como formando parte de la red teórica de la TES dado quecumplen la ley fundamental de la red teórica: la ley de maximización de la utilidad.

343 GÓMEZ, A., «La perspectiva descriptivista en teoría de la elección racional». Manuscrito.

307

comparaciones interpersonales de bienestar y para la construcción de una función de bienestar

social. En general los problemas de determinación de la utilidad afectan a todas aquellas

propuestas que consideran comparación interpersonal de utilidades, para lo cual es necesario una

función de utilidad cardinal. En cuanto a la propuesta de Arrow, que usa sólo utilidad ordinal,

sabemos que la conjunción de sus condiciones no tiene modelos sencillamente porque son

inconsistentes entre sí. Pero igual que en el caso de la teoria del comportamiento del consumidor

pocas aplicaciones empírica no quiere decir ninguna. Propuestas como las de A. Downs341 o M.

Olson,342 parecen, cada una dentro de su área, acercarse más a lo empírico que las teorías

propuestas para escapar al Teorema de Imposibilidad de Arrow.

* * *

Las mejoras en la capacidad explicativa y predictiva de ambas teorías y en su contenido

empírico parecen pasar necesariamente por mejoras en la teoría de la utilidad. El principio de

maximización de la utilidad está defendido por un fuerte conjunto de asunciones que lo protegen

de cualquier violación del modelo. Una línea de investigación puede ser el desarrollo de leyes

especiales, entendidas estas como leyes empíricas de bajo nivel que den cuenta de los

mecanismos causales de los fenómenos. En este sentido A. Gómez343 presenta una propuesta

interesante, basada en el enfoque de N. Cartwright, de como una perspectiva descriptivista de la

elección racional, que da cuenta de los fenómenos empíricos, puede ser complementaria del

principio de maximización de la utilidad. Refiriéndose a la economía A. Gómez afirma: «el punto

débil de la Economía son las leyes empíricas de bajo nivel que dan cuenta de los eventos

económicos. De ahí la discrepancia entre lo que la teoría postula y lo que realmente ocurre, de

ahí su limitada capacidad predictiva. Una economía con mayor contenido empírico y por tanto

explicativo y predictivo ha de centrarse en la formulación de leyes de bajo nivel que den cuenta

CAPÍTULO V

344 Se pueden considerar estas operaciones como reglas heurísticas, en el sentido de Simon, que tienden asimplificar el problema en cuestión.

308

de los mecanismos causales de los fenómenos y que añadan corrección fenoménica para producir

una adecuada descripción. Formulado en otros términos, las leyes fundamentales son vacías sin

la mediación de los mecanismos empíricos»

Así la propuesta que compartimos con la autora es retener el principio de maximización

de la utilidad en aquellas aplicaciones que son modelos de la teoría, es decir, cuando la situación

de elección es lo suficientemente transparente como para permitir la elección óptima y, si es

posible, probar las asunciones protectoras de la ley de maximización de la utilidad. Estas

asunciones las establece la autora como desviaciones sustantivas del modelo estándar que son

1) restringidas a problemas de elección insignificantes, 2) rápidamente eliminables por incentivos

y aprendizaje y 3) irrelevantes para la economía dada la función correctora de las fuerzas del

mercado. Se trataría de incorporar la teoría descriptiva de Kahneman y Tverski allí donde se

demuestre que las asunciones fallan. Ello permitiría aumentar el conjunto de aplicaciones

intencionales mediante leyes especiales y por tanto el contenido empírico de la teoría.

La Teoría de la Perspectiva, propuesta por Kahneman y Tverski, divide el proceso de

decisión en dos etapas: una primera fase de estructuración cognitiva donde se estructuran las

acciones posibles con sus resultados y contingencias y, sobre todo, donde se realizan operaciones

adicionales como eliminación de estrategias dominadas, al menos aquellas que aparecen de forma

transparente) y se cancelan los componentes comunes.344 Y una segunda fase de evaluación de

esas expectativas ya estructuradas. Finalmente se selecciona la expectativa con el valor más alto.

De esta forma ya no se multiplica sólo el valor de la expectativa por su probabilidad asociada,

sino también por los pesos de decisión que corresponde a la evaluación de las expectativas. Así,

la forma de la función queda definida por π (p) v(x) + π (q) v(y). Donde x e y son las alternativas

de elección, v es el valor de las mismas, p y q son las probabilidades asociadas a x e y

respectivamente y π son los pesos de decisión. De esta manera tenemos una función cuya

CAPÍTULO V

345 KAHNEMAN, D. y TVERSKI, A. «Rational Choice and the Framing of Decisions», en COOK, K. y LEVI, M., (eds.),1990, p. 67.

346 Esta afirmación es realizada por Machina y recogida en el texto por los propios autores. KAHNEMAN, D yTVERSKI, A. En COOK, K. y LEVI, M., (eds.), 1990, p. 82.

309

representación tiene forma de S acostada, cóncava por encima del punto de referencia, el cual

sería un resultado neutral al que se le asigna un valor cero, y convexa debajo de dicho punto. Las

propiedades de dicha función son: «1) es definida sobre pérdidas y ganancias, 2) generalmente

cóncava para ganancias y convexa para pérdidas, 3) más profunda para pérdidas que para

ganancias».345

Esta función parece dar cuenta de hechos conductuales observados, como por ejemplo

que la actitud de los sujetos depende de la cantidad de dinero implicado o la aversión por las

pérdidas que a su vez puede contribuir a la explicación de la no concordancia entre la cantidad

de dinero que la gente desea pagar por un bien y la compensación que demandan por cederlo,

lo cual es fundamental para la teoría de la elección social. Pero por ejemplo permite la violación

de la dominancia estocástica lo que ha llevado a afirmar que la teoría de las expectativas es

«inaceptable como un modelo descriptivo de conducta hacia el riesgo».346 Pero en la medida en

que la teoría predice precisamente la violación de la dominancia estocástica no parece ésta una

objeción determinante.

El gran mérito de la propuesta de los autores es, por un lado, el intento de construcción

de una teoría que de cuenta de las anomalías con las que se encuentra la teoría neoclásica que

suele ser ‘parcheada’ con supuestos ad hoc de dudosa validez, y, por otro, el enriquecimiento

que proporciona al modelo la introducción de consideraciones psicológicas, aunque como ellos

mismos reconocen esto limite el alcance del análisis: «La introducción de consideraciones

psicológicas enriquece y complica el análisis de la elección. Dado que la estructuración de las

decisiones depende del lenguaje de presentación, del contexto de elección y de la naturaleza de

la exposición, nuestro tratamiento de los procesos es necesariamente informal e incompleto (...)

Un adecuado informe de la elección no puede ignorar esos efectos de estructuración y contexto,

CAPÍTULO V

347 Ibídem, p. 83.

310

incluso si son normativamente desagradables y matemáticamente intratables».347

Esta propuesta supondría además un cambio en ciertos valores epistémicos

predominantes entre la comunidad económica. Entre otros que no sea únicamente la tratabilidad

matemática la que guíe los desarrollos teóricos, que las explicaciones no sean monocausales, en

el sentido de excluir cualquier factor explicativo que caiga fuera del principio de maximización

de la utilidad y la inclusión de trabajos e investigaciones provinientes de otras disciplinas como

la Psicología.

Es por tanto una apuesta por la investigación empírica e interdisciplinar.

«El asunto es que el caldo social alimenta las posibilidades más oscuras de la personalidad.

No resultaría difícil encontrar algún caso en que el abuso de la literatura de la Rational Choice

o el frecuenteo de los homines oeconomicus se traduce en las maneras de ordenar decisiones vitales y académicas,

mientras que el estudio de la igualdad o la virtud no corrige un milímetro el carácter.

Por supuesto, por lo que se dice, nadie se reconoce en estas descripciones».

F. Ovejero.

ADDENDA

312

Addenda.

La filosofía de la ciencia como guía práctica.

En algún momento del capítulo cuatro se señaló que el tema que subyace a la relación

entre la teoría del comportamiento del consumidor y la teoría de la elección social es la validez

del modelo de agente económico, la susceptibilidad de su exportación a otros campos y en qué

términos se produce dicha exportación.

Desde un marco epistémico han sido dadas respuestas a las dos últimas cuestiones. La

primera de ellas, la validez del modelo de agente económico dentro del campo de la elección

social, no podía ser planteada desde un marco epistémico, sino abordándolo desde una

perspectiva interna a la teoría en un análisis de lo que supone su uso.

No vamos tampoco ahora a abordar esta cuestión en profundidad. Exigiría un trabajo casi

del mismo volumen que el necesitado para su análisis epistémico, pero sí nos gustaría dejar

planteadas algunas cuestiones que creemos han de ser objeto de una reflexión cuidadosa.

Cuando se inició esta investigación la primera intuición, ceñida al ámbito estricto de la

ADDENDA

348 BUCHANAN, J., 1984, p. 115.

313

elección social, fue que gran parte de los problemas de la teoría provenían del uso de funciones

de utilidad individual en los términos en que este uso se realizaba. Creemos que esta primera

intuición ha quedado demostrada a nivel metateórico. La segunda intuición era que, pese a que

formalmente podamos establecer una reconstrucción de la teoría de la elección social en términos

de la teoría del comportamiento del consumidor, pese a que la problemática de la teoría pueda

ser abordada con el utillaje de la teoría económica, hay diferencias sustantivas que ‘deberían’ ser

analizadas y tenidas en cuenta en el desarrollo teórico de esta área. Estas diferencias se refieren,

por ejemplo, a la estructuración de las preferencias cuando se elige no sólo para uno mismo sino

para la comunidad en la que se está inserto; o a la naturaleza de las alternativas que son objeto

de elección, aunque los teóricos sostengan que es lo mismo elegir «entre manzanas y naranjas

en el mercado o entre la guerra y la paz para la nación».348 También se pueden establecer

distinciones en lo que respecta a supuestos, nunca establecidos explícitamente, como la eficiencia

o la posibilidad de compensación, que se introducen subrepticiamente por la puerta de atrás en

los análisis de elección social, y cuyas consecuencias varían mucho de un contexto a otro, etc.

La exposición, necesariamente breve, de este tipo de cuestiones llenarán las páginas que

siguen. Su consideración no es relevante para el análisis estrictamente epistémico que ha sido

realizado, pero creemos que desde la filosofía de la ciencia también debe ser abordado el estudio

de las consecuencias que el uso y aplicación de las teorías tiene para el mundo y la sociedad en

que vivimos, especialmente cuando estas consecuencias se refieren a la forma en que se

organizan y diseñan nuestras instituciones sociales. En este sentido la filosofía de la ciencia ha

de constituirse también como una guía práctica.

ADDENDA

314

Las cuestiones señaladas pueden ser organizadas en torno a tres puntos: la equivalencia

entre el equilibrio competitivo y el óptimo de Pareto; cómo influyen los supuestos acerca de la

naturaleza del ser humano en las explicaciones proporcionadas por la teoría y en el diseño de las

instituciones; y, finalmente, cómo influye en ese diseño institucional que la estructura de las

preferencias, sin niguna consideración adicional, sea lo único relevante en la explicación de las

elecciones sociales. Todas estas cuestiones se hallan profundamente interrelacionadas.

El Teorema Fundamental de la Economía del Bienestar afirma la equivalencia entre un

equilibrio competitivo y un óptimo de Pareto. Un equilibrio competitivo es una situación donde

todos los individuos han maximizado su utilidad, sujeta a sus restricciones presupuestarias, y

oferta y demanda han sido igualadas, de forma que nadie quiere o puede intercambiar nada más.

Esto será un estado paretianamente óptimo, dado que no se puede mejorar la situación de alguien

sin empeorar la de algún otro. Pero, para empezar, el equilibrio competitivo, cuando se da, es un

resultado del sistema económico, mientras que la consecución o no de un estado paretianamente

óptimo es un principio normativo. Su pretendida equivalencia conduce a pensar que no nos

hemos alejado mucho de la ‘mano invisible’ de A. Smith, como principio normativo de

redistribución, donde cada uno, buscando su propio interés, consigue, de forma no intencional,

el bien común.

Por otro lado, las decisiones, que afectan a la política pública, se toman según este modelo

ideal, sin dar cuenta de que las constricciones que definen el equilibrio económico son tan

restrictivas que es poco menos que imposible encontrarlas en contextos reales, con lo que una

decisión que sería óptima en el mundo teórico ideal, puede ser más que subóptima en el mundo

ADDENDA

349 BLAUG, M., 1985a, p. 377.

350 OVEJERO, F., 1994, p. 176.

315

real.

La equivalencia entre el principio de Pareto y el equilibrio competitivo es otra forma de

afirmar la equivalencia ente óptimo de Pareto y máxima eficiencia. El concepto de eficiencia

económica viene definido como sigue: «... al dividir una cantidad fija de cualquier cosa entre

varios usos competitivos, la asignación eficiente implica que cada unidad del dividendo se asigna

en forma tal que la ganancia de su transferencia a un uso será exactamente igual a la pérdida

involucrada en su retiro en otro uso».349 Esto no es más que la igualación de las tasas marginales

de sustitución que sirven de base al equilibrio general competitivo. Y sabemos que una situación

de equilibrio general es un óptimo de Pareto, el criterio decisor para las medidas de política

económica. Pero tal vez la estrategia no haya sido establecer las condiciones por las que un

equilibrio competitivo (como resultado) se reconozca en el mundo real, sino forzar la realidad

para conseguir las pretendidas eficiencias. «Por esa vía, un producto que arrancaba con intención

explicativa, se convierte en una «utopía racional». Lo único que había que hacer era convertir los

supuestos de la teoría, en las metas a conseguir. Era otro modo de empezar a hablar de fines».350

En esta perspectiva, la teoría se torna normativa y, por tanto, debe ser evaluada según otros

criterios

Existen una serie de supuestos implícitos en la concepción de ser humano como

maximizadores de riqueza neta que tienen consecuencias relevantes en el ámbito de la elección

social. Parte de estos supuestos son: que los hombres siempre prefieren más a menos riqueza,

ADDENDA

351 OVEJERO, F., 1994, pp. 76-77.

316

que la utilidad de cada individuo depende única y exclusivamente de su consumo particular, que

las preferencias son arquimédicas y, sobre todo, que los hombres son económicamente eficientes

en sus elecciones.

Postular que los seres humanos siempre prefieren más a menos parece un axioma

evidente de la conducta humana. Si fueran preguntados todos y cada uno de los agentes, es más

que probable que contestaran con un sí rotundo. Pero ¿esta afirmación es cierta en cualquier

contexto de elección? ¿No hay ninguna cualificación que añadirle? Veámoslo a través de un

ejemplo de F. Ovejero donde además se cuestiona la idoneidad del principio de Pareto.

«En principio, el paso de una distribución de la renta entre dos individuos de A (30, 40)

a B (60, 80), en la que el primero pasa de 30 a 60 y el segundo de 40 a 80, no se puede calificar

como mejora paretiana, si no se añade la suposición de que los individuos creen que «más (renta)

es preferido (o preferible) a menos.» (...) Si en el ejemplo anterior, el supuesto de preferencia de

los dos individuos fuera: «es preferible menos (desigualdad) a más», el estado B resultaría peor

en sentido paretiano».351

Es decir, el criterio de distribución, en este caso el óptimo de Pareto, depende de un

supuesto que no se hace explícito y que, si se sustituye, cambia la asignación final. La cuestión

es que la utilidad es una función creciente de la riqueza, esta es la contrapartida teórica de ‘los

seres humanos prefieren más a menos’, y este es un postulado fundamental de la teoría que no

puede ser alterado sin modificar la misma.

Tenemos por otro lado el supuesto, esta vez explícitamente establecido, de que la utilidad

de cada individuo depende únicamente de su consumo particular. Lo cual implica que las

ADDENDA

352 BUCHANAN, J., Economic: Between Predictive Science and Moral Philosophy. Texas, A & M UniversityPress, 1987, p. 187. Hay una contradicción explícita en la obra de Buchanan, ya que, en El cálculo delconsenso, escrita junto con G. Tullock afirma: «Inicialmente sin embargo, podríamos suponer que elindividuo medio o representativo actúa sobre la misma escala de valores tanto cuando participa en unaactividad de mercado como en la actividad política», 1980, p. 45. Buchanan utiliza uno u otro argumentosegún su conveniencia. Afirma que el individuo actúa sobre la misma escala de valores cuando defiende el usodel enfoque económico en la política bajo el rótulo del argumento de simetría. Y afirma que actúa sobrevalores distintos cuando intenta refutar la hipótesis de Arrow de que mercado y voto forman parte de unacategoría más general que sería la elección social. Una forma de salvar la inconsistencia de ambos argumentossería afirmar que el individuo posee una serie de preferencias de primer orden, básicamente autointeresadasy egoístas, pero su escala de valores actúa como un sistema de metapreferencias en el ámbito social, quelimitan de alguna manera las preferencias de primer orden cuando las instituciones sociales o las costumbresdicten alguna desviación de la búsqueda de los intereses privados. Es decir, y siempre intentando conciliar lascontradicciones mencionadas, en aquellos casos en los que el sujeto elige para la comunidad y no para símismo. De todas maneras esto no deja de ser una interpretación personal.

317

funciones de utilidad son independientes unas de otras. Esto es un requisito necesario para

determinar un estado de equilibrio bajo los supuestos de la teoría.

Paradójicamente, J. Buchanan, uno de los mayores defensores de la aplicación de la TCC

al ámbito de las elecciones políticas, sostiene una diferencia cuando el individuo actúa en el

mercado y cuando actúa en el contexto de la elección social. «Parece probable que el individuo

representativo actuará de acuerdo con una escala diferente de preferencias cuando comprende

que está eligiendo para el grupo y no para sí mismo».352 Esto tiene que ver con lo que podemos

denominar de alguna manera la intencionalidad de los procesos. En el mercado, una vez que el

consumidor ha maximizado su utilidad y está en equilibrio, hay una asignación eficiente de

recursos, la demanda global se iguala a la oferta global, se cumple el objetivo maximizador -pues

no habrán reasignaciones del gasto capaces de aumentar la satisfacción total- y se alcanza un

equilibrio en el intercambio. Pero todo ello ocurre, por así decirlo, de espaldas al sujeto. Su

objetivo no es la eficiencia total del sistema, ni obtener una situación social dada; su único

objetivo es satisfacer sus preferencias o sus necesidades. Mientras que en una situación de

elección social sí hay una intencionalidad sobre lo global, sí se piensa en el resultado final y éste

ADDENDA

353 BUCHANAN, J., «Individual Choice in Voting and the Market», en BUCHANAN, J., 1987.

354 Hay un sentido donde esto sí se produce, son los denominados efecto esnobismo y efecto del carro triunfal.

318

es intencionalmente considerado. Según Buchanan,353 este sentido de participación social

ejercería importantes efectos en la conducta individual, ya que el individuo actuaría con una

escala de preferencias distintas según la acción se produzca en uno u otro contexto. Las razones

aducidas para esta argumentación serían: en primer lugar, la mayor probabilidad de la influencia

de sus valores en la ordenación de las alternativas. En segundo lugar, que en el mercado no hay

interacción específica entre los individuos, en el sentido de que su acción no se ve directamente

influida por la conducta de los otros,354 ya que estos son tomados como parámetros, no como

variables que determinen la posición del individuo, que es lo que ocurre en el contexto del voto.

Se está admitiendo, por tanto, que los valores individuales son significativos a la hora de

realizar la elección, y que esto constituye una diferencia en la elección entre ambos contextos.

Se trata, fundamentalmente, de que la función de utilidad ya no estará compuesta, única y

exclusivamente, por el beneficio derivado del consumo o la posesión de bienes, sino por ‘algo

más’. Ese ‘algo más’ sería la utilidad del resto de los agentes que constituyen la comunidad. Pese

a todo, desde los supuestos teóricos se continúa manteniendo que los preferencias son

independientes y que dependen únicamente del consumo. En resumen, en las elecciones sociales

la utilidad del individuo no vendría dada exclusivamente por su consumo particular, habría que

establecer de alguna manera la forma en que las funciones de utilidad son interdependientes, pero

esta interdependencia viene explícitamente prohibida por las herramientas matemáticas utilizadas.

Como se recordará, el supuesto de preferencias arquimédicas, implícito en la posibilidad

de construcción de curvas de indiferencia, se refiere a que siempre es posible compensar al

ADDENDA

355 Normalmente los datos usados en el análisis riesgo-beneficio, para estimar los incrementos de consumo deun individuo que compense disminuciones en su probabilidad de supervivencia, de forma que la utilidad semantenga constante, son las diferencias salariales observadas en actividades profesionales de riesgo. Ver«Behaviour under Uncertainty and its Implications for Policy», en BELL, D., RAIFFA, H. y TVERSKY, A., (eds.),1988, pp. 497-507.

319

individuo de pérdidas en las unidades de un bien con aumentos en las unidades de otro bien. Ello

implica que las preferencias no son lexicográficas. La cuestión es ¿es posible esta compensación

en todos los contextos?

Imaginemos que debemos establecer la compensación que se otorgará a un individuo por

trabajar en una industria de riesgo.355 Su utilidad esperada depende únicamente de pU(c), es decir,

probabilidad de supervivencia y consumo, estas serían las variables relevantes aquí. Este tipo de

análisis coste-beneficio o riesgo-beneficio, es una forma de introducir la noción de Pareto en los

análisis de política económica. Se supone que se pregunta a los afectados qué cantidad de dinero

estarían dispuestos a pagar por la implementación de una medida política determinada (caso de

que fuera considerada deseable por los agentes), o en cuánto fijarían la compensación a recibir

si la medida política fuera finalmente implantada (caso de que fuera considerada indeseable). Esa

medida política sería una mejora de Pareto si los ganadores pudieran compensar a los perdedores

y todavía obtuvieran algo para sí mismos.

Estamos suponiendo, por un lado, que la compensación es posible; por otro, que los

individuos son capaces de estimar p y c de forma que U se mantenga constante y, además, se

haga máxima; y, finalmente, que serán los aumentos de c estimados los que sirvan de

compensación, independientemente del grupo de sujetos que se esté considerando.

«Que a determinados individuos se les pueda compensar por vivir cerca de una central

nuclear, que estén de acuerdo en aceptar riesgos y enfermedades, sólo nos habla de su

ADDENDA

356 Subrayado en el original. OVEJERO, F., 1994, p. 83.

320

percepción, de su miseria: cuanto más pobres sean más fácilmente aceptarán. Desde el punto de

vista de la percepción subjetiva, los pobres del Tercer Mundo que están dispuestos a morir de

leucemia o a trabajar en industrias químicas arriesgando su vida a cambio de un salario se

sentirán compensados».356 Es evidente que la pregunta por la posibilidad de la compensación ha

de ser complementada por la pregunta acerca de la justicia de la misma, especialmente si, como

se vió, hay ocasiones en las que los individuos no estiman de forma correcta las probabilidades.

Trasciende a la teoría el supuesto de que los sujetos realizan la mejor elección dentro de

las alternativas presentadas. Recogen la cantidad de información óptima hasta el punto donde se

igualan sus tasas marginales de sustitución, calculan la probabilidad de ocurrencia de las diversas

alternativas, así como la utilidad que obtiene en cada uno de los posibles estados del mundo.

Sobre ese modelo ideal de ser humano, se estiman las posibles elecciones de los agentes y, en

función de ellas, se implementan las políticas.

Pero sabemos positivamente que se da una externalidad negativa en lo que a la

recolección de información se refiere; por la problemática de la TUE analizada más arriba,

sabemos también que los individuos no siempre estiman las probabilidades de los fenómenos en

la forma predicha por la teoría, y que la utilidad que asigna a las alternativas no depende sólo de

sus deseos y la probabilidad de ocurrencia de los fenómenos. Pese a todo, estos son los

habitantes que pueblan los modelos de la teoría.

Es una premisa fundamental que las elecciones públicas o colectivas dependen única y

exclusivamente de las preferencias individuales. A este nivel, sólo se contemplan los métodos de

ADDENDA

357 Para este apartado nos basaremos fundamentalmente en OVEJERO, F., 1994, pp. 50-54.

321

agregación de dichas preferencias que, aunque poseen valores implícitos, toman las preferencias

como dadas. Todo ello fundamentado en el principio de soberanía individual, es decir en la

defensa de la libertad individual; son los deseos de los ciudadanos los que deben determinar las

elecciones colectivas. En este sentido, las preferencias son la expresión libre de los deseos.357 Pero

hay multitud de fenómenos que llevan a pensar que las preferencias no son tan libres ni tan

autónomas.

A la defensa de las preferencias individuales como expresión de la soberanía de los

individuos, subyace el principio de que las preferencias han de ser libremente expresadas y

conformadas. Un heroinómano tiene una preferencia clara por una inyección de heroína, pero

nadie desde las instancias políticas, decidiría que hay que proporcionársela sencillamente porque

la desea. Las medidas impositivas sobre el tabaco ‘se supone’ que son establecidas para inducir

un cambio de preferencias de los consumidores del mismo; tampoco en este caso se satisfacen

las preferencias de los agentes, y no se cree que deban ser satisfechas. Por tanto, de forma

implícita, se admite que alguna cualidad han de tener las preferencias para ser consideradas

fundamento de las decisiones colectivas. En función de los dos ejemplos reseñados, parece que

esa cualidad apunta a la autonomía de las preferencias; sin embargo, las agencias publicitarias

viven de la posibilidad de inducir cambios en las preferencias. En base a ello, no parece que éstas

sean un cimiento muy sólido en el que fundamentar únicamente la elección social.

Muchas veces, las preferencias son el fruto de un ajuste a la realidad, con el propósito de

reducir la disonancia entre nuestros deseos y un mundo que no los satisface. La disonancia se

ADDENDA

358 ELSTER, J., 1988.

359 TULLOCK, G., «Does Punishment Deter Crime?». Public Interest, 1974, pp. 104-105, en AKERLOF, G. yDICKENS, W., «The Economic Consecuence of Cognitive Dissonance». American Economic Review, 1982,pp. 307-319.

322

reduce juzgando indeseable lo que no se puede obtener, como es el caso de la zorra y las uvas.358

No tener en cuenta que las preferencias, muchas veces, son adaptativas, puede tener

consecuencias importantes cuando aplicamos la teoría fuera del ámbito estrictamente económico.

G. Tullock aplica la teoría microeconómica a la teoría del crimen. Según él: «La mayoría de los

economistas que piensan seriamente en el problema del crimen, inmediantamente llegan a la

conclusión de que el castigo, en efecto, impedirá el crimen. La razón es perfectamente simple ....

Si aumentas el costo de algo, menos será consumido. Así, si incrementas el costo de comenter

un crimen habrá menos crímenes».359

Estudios en reducción de disonancia cognitiva, muestran que lo anterior no es

exactamente así. Si los castigos son menos severos, los sujetos necesitan crear una justificación

interna para obedecer las leyes. «Así la aplicación de la teoría de precios al crimen no es tan

natural como Tullock y también Becker (1968) nos harían creer. Incrementar el castigo puede

actuar como un impedimento donde su efecto es obvio y la probabilidad de captura por el crimen

es bien conocida por el criminal. Pero la mayoría de los crímenes son cometidos con la

expectativa de que el criminal no será capturado. Así la automotivación para obedecer la ley es

indudablemente un factor clave en la reducción del crimen -y éste debería disminuir con la

ADDENDA

360 AKERLOF, G. y DICKENS, W., 1982, p. 318.

361 OVEJERO, F., 1994, p. 51.

323

severidad del castigo».360 Es decir, si creemos que las preferencias son realmente autónomas y

libres el diseño de nuestras instituciones tendrá una forma, si creemos que a veces son el

producto de disonancia cognitiva o de ajustes adaptativos a la realidad tendrá otra. De esta forma

el modelo ideal que se toma tiene consecuencias en la organización práctica de nuestra sociedad.

Otro ejemplo que redunda en lo mismo, en como la elección de los supuestos teóricos determina

decisiones acerca de política pública, lo constituye el análisis de formación de coaliciones con las

herramientas de la teoría de juegos. Recuérdese que en este caso se establecía explícitamente que

en un modelo de distribución bajo regla de mayoría la imputación equitativa nunca sería elegida.

Es decir, el reparto igualitario de la riqueza quedaba, a priori excluido bajo la hipótesis de

maximización de la utilidad.

Hay ocasiones en que las preferencias dependen de la propia situación. En países con un

alto grado de desempleo, no puede decirse que los individuos prefieran un trabajo a otro; las

preferencias son, en estos casos, resultado de una adaptación al sistema en que otras

oportunidades han resultado inaccesibles. Lo mismo puede decirse de «las poblaciones del Tercer

Mundo que están dispuestas a aceptar industrias contaminantes a cambio de unas rentas que les

ayuden a evitar las hambrunas».361 Esto tiene que ver con lo que se ha denominado efecto de la

dotación (endowment efect). Las preferencias cambian según la asignación de bienes y la relación

de posesión de que se tenga con ellos. Esto explica, en parte, fenómenos como la inversión de

preferencias (preference reversal), cuando se asigna un equivalente cierto mayor a la alternativa

que no ha sido elegida, o a la que nos ha sido asignada, aunque en otras circunstancias hubiera

ADDENDA

324

sido el resultado de nuestra elección. También señala negativamente al óptimo de Pareto que

habla de una distribución inicial que no puede ser modificada. Si las preferencias dependen de

la distribución inicial cualquier intercambio posterior estará fundamentado en preferencias que

no han sido elegidas libremente. «En ese sentido, en tanto: a) cualquier asignación inicial de

derechos conforma las preferencias; b) no hay sistema legal que pueda operar sin una asignación

inicial, no hay statu-quo (sistema legal resultado de intercambios) que pueda fundarse en las

preferencias».

Tal vez deberíamos reflexionar sobre la posibilidad de que siendo el homo economicus

el que puebla nuestras teorías, este comportamiento, en el que nadie, por supuesto, se reconoce,

acabe siendo sancionado en el mundo real. Que situándonos, dentro del espectro, en la peor de

las conductas posibles, acabemos diseñando el peor de los mundos posibles, fruto de un

conjunto de decisiones basadas en un modelo de individuo que, aunque existente, no se puede

postular como universal.

BIBLIOGRAFÍA

325

Bibliografía

AKERLOF, G. Y DICKENS, W., (1982), «The Economic Consecuence of Cognitive Dissonance».

American Economic Review, pp. 307-319.

ALLAIS, M., (1953), «Le Comportement de l’Homme Rationnel Devant le Risque: Critique des

Postulats et Axioms de l’Ecole Americaine». Econométrica, pp. 503-546.

ALVAREZ, F., (1998), (Ed.), Ética y economía política. Rev. Isegoría, monográfico, Madrid, nº 18.

ARROW, K. J., (1950), «Una dificultad en el concepto del bienestar Social», en ARROW, K. J. y

SCITOVSKI, T., (comps.), pp.188-214, 1974.

— (1951a), «Alternatives Approachs to the Theory of Choice in Risk-Taking Situation».

Econometrica, Vol. 19, pp. 404-437.

— (1951b), Elección social y valores individuales. Madrid, Ed. Instituto de Estudios Fiscales,

1974.

— (1967a), «Valores individuales y valores sociales», en CASAHUGA, A. (comp.), pp. 145-168, 1980.

— (1967b), «Los valores y la toma de decisiones colectivas», en HAHN, F. y HOLLIS, M. (comps.),

pp. 281-250, 1986.

— (1988), «Behaviour under Uncertainty and its Implications for Policy», en BELL, D., RAIFFA, H.

y TVERSKY, A. (eds.), pp. 497-507.

BIBLIOGRAFÍA

326

— (1994), «Methodological Individualism an Social Knowledge». American Economic Review,

Vol. 84, pp. 1-9.

ARROW, K. J. y SCITOVSKI, T., (1969), (comps.), Ensayos sobre economía del bienestar. México, Ed.

Fondo de Cultura Económica, 1974.

AXELROD, R., (1984), La evolución de la cooperación. Madrid, Ed. Alianza Universidad, 1986.

BACKHOUSE, R., (1994), (ed.), New Directions in Economic Methodology. Londres, Ed. Routledge.

— (1998), Explorations in Economic Methodology. Londres, Ed. Routledge.

BALZER, W., (1982), «A Logical Reconstruction of Pure Exchange Economic». Erkenntnis, Vol.

17, pp. 23-46.

— (1985), «The Propper Reconstruction of Pure Exchange Economic». Erkenntnis, Vol. 23, pp.

185-200.

— (1997), Teorías empíricas: modelos, estructuras y ejemplos. Madrid, Ed. Alianza Universidad.

BALZER, W. y MOULINES, C., (1980), «On Theoricity». Synthese, Vol. 44, pp. 467-494.

BALZER,W., MOULINES, C. y SNEED, J., (1987), An Arquitectonic for Science. Dordrecht, Ed. Reidel

Publishing Company,

BARBERÁ, S., (1984), «Teoría de la elección social: algunas líneas de desarrollo». Hacienda

Pública Española, Vol. 91, pp. 221-243.

BARBERÁ, S. y GARCÍA-BERMEJO, J., (1977), «Prohibiciones metodológicas y economía del bienestar».

Cuadernos Económicos de I.C.E., pp. 146-166.

BARCELÓ, A., (1992), Filosofía de la economía. Leyes, teorías y modelos. Barcelona, Ed. Icaria.

BARRY, B., (1970), Los Sociólogos, los economistas y la democracia. Buenos Aires, Ed.

Amorrortu, 1974.

BECKER, G., (1962), «Irrational Behaviour and Economic Theory». Journal of Political Economy,

Vol. LXX.

— (1976), El enfoque económico del comportamiento humano. Madrid, Ed. ICE, 1980.

BIBLIOGRAFÍA

327

BELL, D., RAIFFA, H, y TVERSKY, A., (1988), (eds.), Decision Making. Cambridge, Ed. Cambridge

University Press.

BERGSON, A., (1966), «Una nueva formulación de ciertos aspectos de la economía del bienestar»,

en ARROW, K. J. y SCITOVSKI, T., (comps.), pp. 27-66, 1974.

BILAS, R., (1967), Teoría microeconómica. Madrid, Ed. Alianza, 1984.

BINMORE, K., (1982), Teoría de juegos. Madrid, Ed. McGraw-Hill, 1993.

BLACK, D., (1948), «On the Rationale of Group Decision Making». Journal of Political Economy,

Vol. 56.

BLAIR, J. y MASER, S., (1978), «Una revaloración de los modelos axiomáticos en política pública»,

en CASAHUGA, A.y BACCARIA, J. (comp.), pp. 61-85, 1984.

BLAUG, M., (1975), «Kuhn versus Lakatos, or Paradigms versus Research Programmes in the

History of Economics». History of Political Economy, Vol. 7, pp. 399-433.

— (1978), Teoría económica en retrospección. México, Ed. Fondo de Cultura Económica,

1985a.

— (1980), La metodología de la economía. Madrid, Ed. Alianza Universidad, 1985b.

— (1994), «Why I am not a Constructivist: Confessions of an Unrepentant Popperian», en

BACKHOUSE, R., (ed.).

BOHMAN, J., (1991), New Philosophy of Social Science. Cambridge, Ed. The MIT Press.

BORCH, K., (1968), The Economic of Uncertainty. Princeton, Ed. Princeton University Press.

BOWEN, H., (1943), «La interpretación del voto en la asignación de recursos económicos», en

ARROW. K.J. y SCITOVSKI, T, pp. 151-171, 1974.

BOYLAND, T. A. y O’GORMAN, P. F., (1995), Beyond rhetoric & realism in economics. Towards a

reformulation of economic methodology. Londres, Ed. Routledge.

BRENNAN, G., (1990), «What Might Rationality Fail to Do?», en COOK, K. y LEVI, M., (eds.), pp. 51-

59.

BRENNAN, G., y BUCHANAN, J., (1985), La razón de las normas. Madrid, Unión Editorial, 1987.

BIBLIOGRAFÍA

328

BUCHANAN, J., (1976), «Hacienda pública y elección social». Hacienda Pública Española, Vol.

40, pp. 9-23.

— (1975), «Un paradigma contractario para aplicar la teoría económica», en CASAHUGA, A. y

BACARIA, J. (comps.), pp. 623-633, 1984.

— (1979), «Política sin romanticismo», en BUCHANAN, J., MCCORMICK, R. y TOLLISON, R., pp. 105-

135, 1984

— (1987), Economics: Between Predictiva Science and Moral Philosophy. Texas, Ed. A. & M.

University Press.

— (1996), Ética y progreso económico. Barcelona, Ed. Ariel.

BUCHANAN, J. y TULLOCK, G., (1962), El cálculo del consenso. Madrid, Ed. Espasa-Calpe, 1980.

BUCHANAN, J., MCCORMICK, R. y TOLLISON, R., (1984), El análisis económico de lo político. Madrid,

Ed. Instituto de Estudios Económicos.

CALDWELL, B., (1994), «Two Proposals for the Recovery of Economic Practice», en BACKHOUSE,

R. (ed.).

— (1994), Beyond Positivism. Londres y Nueva York, Ed. Routledge.

CARTWRIGHT, N., (1979), «Causal Laws and Effective Strategies», Nous, Vol. 13

CASAHUGA, A. (comp.), (1980), Teoría de la democracia. Madrid, Ed. Instituto de Estudios

Fiscales.

— (1985), Fundamentos normativos de la acción y organización social. Barcelona, Ed. Ariel.

CASAHUGA, A. y BACARIA, J., (1984), Teoría de la política económica. Madrid, Ed. Instituto de

Estudios Fiscales.

COLOMER, J., (1987), El utilitarismo. Barcelona, Ed. Montesinos.

— (1990), El arte de la manipulación política. Barcelona, Ed. Anagrama.

— (1991), (comp.), Lecturas de teoría política positiva. Madrid, Ed. Instituto de Estudios

Fiscales.

BIBLIOGRAFÍA

329

COOK, K. y LEVI, M., (1990), (eds.), The Limits of Rationality. Chicago, Ed. University of Chicago

Press.

CORONA, J., (1996), Homo Stultus, Homo Sapiens. Barcelona, Ed. Cedecs.

DAVIS, M., (1971), Introducción a la teoría de juegos. Madrid, Ed. Alianza,1986.

DAVIS, O., HINICH, M. y ORDESHOOK, P., (1970), «Desarrollo expositivo de un modelo matemático del

proceso electoral», en COLOMER, J., (comp.), pp. 377-429, 1991.

DEBREU, G., (1973), Teoría del valor. Barcelona. Ed. Bosch,

DIEZ, J. y MOULINES, C., (1997), Fundamentos de filosofía de la ciencia. Barcelona, Ed. Ariel.

DOUGLAS, M., (1985), La aceptabilidad del riesgo según las ciencias sociales. Barcelona, Ed.

Paidós, 1996.

DOWNS, A., (1957), «Una teoría económica de la acción política en una democracia», en COLOMER,

J. (comp.), pp. 263-298, 1991.

— (1971), Una teoría económica de la democracia. Madrid, Ed. Aguilar, 1973.

ECHEVERRÍA, J., (1989), Introducción a la metodología de la ciencia. Barcelona, Ed. Barcanova.

— (1995), Filosofía de la ciencia. Madrid, Ed. Akal.

— (2001), «Tecnociencia y sistemas de valores» en LOPEZ CEREZO, J. A., et. al, pp. 15-29.

ECKEL, C. y HOLT, CH., (1989), «Strategic Voting in Agenda-Controlled Committee Experiments».

American Economic Review, Vol. 79, pp. 763-773.

EGIDI, M. y MARRIS, R., (1992), (eds.), Economic, Bounded Rationality and the Cognitive

Revolution. Aldershot, Ed. Edward Elgar.

ELLSBERG, D., (1961), «Risk, Ambiguity and the Savage Axioms», en GÄRDENFORS, P. y SAHLIN, N.,

(eds.), pp. 245-269, 1988

ELSTER, J., (1979), Ulises y las sirenas. México, Ed. Fondo de Cultura Económica, 1987.

— (1986), Ed. The Multiple Self. Cambridge, Cambridge University Press

— (1983a), Uvas amargas, Barcelona, Ed. Península, 1988.

— (1983b), El cambio tecnológico. Barcelona, Ed. Gedisa, 1990.

BIBLIOGRAFÍA

330

— (1988a), Domar la suerte. Barcelona, Ed. Paidós.

— (1989a), Tuercas y tornillos. Barcelona, Ed. Gedisa, 1990.

— (1989b), Juicios salomónicos. Barcelona, Ed. Gedisa, 1991.

— (1999), Alchemies of the Mind. Rationality and the Emotions. Cambridge, Ed. Cambridge

University Press.

— (2000), Ulysses Unbound. Cambridge, Ed. Cambridge University Press.

FIORINA, M., (1975), «Los modelos formales en ciencia política», en COLOMER, J., (comp.), pp.

37-78, 1991.

FRIEDMAN, M., (1953), Essays in Positive Economics. Chicago, Ed. University of Chicago Press.

— (1953), «La metodología de la economía positiva», en HAHN, F. Y HOLLIS, M., (comps.), pp.

41-76, 1986.

— (1962), Teoría de los precios. Madrid, Ed. Alianza, 1990.

FRIEDMAN, M. y SAVAGE, J., (1948), «The Utility Analysis of Choices Involving Risk». Journal

of Political Economy. Vol. LVI, pp. 279-304.

FRIEDMAN, M. y R., (1979), Libertad de elegir. Barcelona, Ed Planeta, 1973.

GÄNDERFORS, P. y SAHLIN, N., (1988), (Eds.), Decision, Probability and Utility. Cambridge, Ed.

Cambridge University Press.

GIBBAR, A., (1977), «Manipulación de esquemas de votación: Un resultado general». Hacienda

Pública Española, Vol. 44, pp. 308-318.

GIBSON, Q., (1959), La lógica de la investigación social. Madrid, Ed. Tecnos, 1982.

GIERE, R., (1979), Understanding Scientific Reasoning. Nueva York, Ed. Olt. Rinehart y Wiston,

1984.

GÓMEZ RODRÍGUEZ, A., (1988), «Cómo explicar las acciones racionalmente», Arbor, núm. 511-512,

pp. 101-127.

— (1992), Sobre actores y tramoyas. Barcelona, Ed. Anthropos.

BIBLIOGRAFÍA

331

— (1993), «Explicación en un mundo de actores». En CRUZ, M., Individuo, Modernidad e

Historia. Madrid, Ed. Tecnos.

— (1995), «Razones para la cooperación» en ARAMAYO, R., MUGUERZA, J. Y VALDECANTOS, A.,

(Comps.), El individuo y la historia. Barcelona, Ed. Paidós, pp. 43-63.

— (2001), «Racionalidad, riesgo e incertidumbre en el desarrollo tecnológico», en LÓPEZ CEREZO,

J., LUJAN, J. y GARCÍA PALACIOS, E., Filosofía de la tecnología. Madrid, Teorema, pp. 169-187.

— (2002), «Lakatos y la metodología de las ciencias sociales: el caso de la economía», en

GONZÁLEZ, W., La filosofía de Lakatos: evaluación de sus propuestas. Servicio de

Publicaciones de la Universidad Nacional a Distancia.

. GONZÁLEZ, W., (1994), «Economic Prediction and Human Activity. An Analysis of Prediction in

Economics from Action Theory». Epistemologia, XVII, pp. 253-294.

— (1996), «On the Theoretical Basis of Prediction in Economics». Journal of Social Philosophy,

Vol. 27, pp. 201-228.

— (2002), La filosofía de Lakatos: evaluación de sus propuestas. Servicio de Publicaciones de

la Universidad Nacional a Distancia.

GREEN, H. A. JOHN, (1976), La teoría del consumidor. Madrid, Ed. Alianza Universidad, 1986.

HACKING, I., (1981), Las Revoluciones científicas. Ed. Fondo de Cultura Económica, 1985.

HAHN, F. y HOLLIS, M., (1979), (comps.), Filosofía y teoría económica. México, Ed. Fondo de

Cultura Económica, 1986.

HALL, R. L. y HITCH, C. J., (1939), «Price Theory and Business Behaviour». Oxford Economic

Papers, núm. 2, pp. 12-45.

HÄNDLER, E., (1980), «The Logical Structure of Modern Neoclassical Static Microeconomic

Equilibrium Theory». Erkenntnis, Vol. 15, pp. 33-53.

HANDS, D., (1985), «The Structuralist View of Economic Theories: A Review Essay». Economic

and Philosophy, Vol. 1, pp. 303-335.

HANSON, N. R., (1958), Patterns of Discovery, Cambridge, Ed. Cambridge University Press.

BIBLIOGRAFÍA

332

HANSSON, B., (1988), «Risk Aversion as a Problem of Conjoint Measurement», en GÄRDENFORS,

P. y SAHLIN, N., (eds.), pp. 136-158.

HARSANYI, J. C., (1955), «El bienestar cardinal, la ética individualista y las comparaciones

interpersonales de utilidad», en ARROW, K. J. y SCITOVSKI, T., (comps.), pp. 64-82, 1974.

— (1976), Essays on Ethics, Social Behaviour and Scientific Explanation. Dordrecht,Ed. Reidel.

— (1977), «Morality and the Theory of Rational Behaviour. En SEN A. K. y WILLIAMS B., 1982.

HASLINGER, F., (1983), «A Logical Reconstruction of Pure Exchange Economic: An Alternative

View». Erkenntnis, Vol. 20, pp. 115-129.

HAUSMAN, D., (1992), The Inexact and Separate Science of Economics. Cambridge, Ed.

Cambridge University Press.

HEAD, H. A., (1974), «Los fundamentos normativos de la teoría de la hacienda pública», en

CASAHUGA, A. y BACARIA, J., (comps.), pp. 89-168, 1984.

HEMPEL, C. G., (1965), La explicación científica. Estudios sobre filosofía de la ciencia. Buenos

Aires, Ed. Paidós, 1979.

HINDESS, B., (1988), Choice Rationality and Social Theory. Londres, Ed. Unwin Hyman.

HOGARTH, R. y REDER, M., (1987), (eds.), Rational Choice. The Contrast between Economics and

Psiycology. Chicago, Ed. University of Chicago Press.

HOLLIS, M. y NELL, E., (1975), Rational Economic Man. Londres, Ed. Cambridge University Press.

HUTCHISON, T. W., (1938), The Significance and Basic Postulates of Economic Theory. Nueva

York, Ed. Augustus M. Kelley, 1960.

— (1967), Historia del pensamiento económico 1870-1929. Madrid, Ed. Gredos

— (1971), Economía positiva y objetivos de política económica. Barcelona, Ed. Vicens Vives

— (1994), The Uses and Abuses of Economics: Contentious Essays on History and Method.

Londres, Ed. Rowtledge.

INADA, KEN-ICHI, (1969), «The Simple Mayority Decision Rule». Econometrica, Vol. 37, pp. 490-

506.

BIBLIOGRAFÍA

333

JANSEEN, M. y KUIPERS, T., (1989), «Stratification of General Equilibrium Theory: A Synthesis

of Reconstruction». Erkenntnis, Vol. 30, pp.183-205.

KAHNEMAN, D. y TVERSKY, A., (1979), «Prospect Theory: An Analysis of Decision under Risk».

Econometrica, Vol. 47, pp. 263-291.

— (1986), «Rational Choice and the Framing of Decision», en COOK, K. y LEVI. M., (eds.), pp. 60-

89, 1990.

KALDOR, N., (1938), «Las proposiciones del bienestar en la economía y las comparaciones

interpersonales de utilidad», en ARROW, K. J. y SCITOVSKI, T., (comps.), pp. 9-12, 1974.

KAPLAN, A., (1952), «Mathematical and Social Analysis», en SHUBIK, M., pp. 81-86, 1964.

KEYNES, J. M., (1972), Ensayos de persuasión.Barcelona, Ed. Crítica, 1988.

KUHN, T. S., (1962), La estructura de las revoluciones científicas. México, Ed. Fondo de Cultura

Económica, 1975.

— (1974), Segundos pensamientos sobre paradigmas. Madrid, Tecnos, 1978.

— (1977), La tensión esencial. México, Fondo de Cultura Económica, 1982.

KURZ, M., (1978), «Altruism as an Outcome of Social Interaction». American Economic

Association, Vol. 68, pp. 216-222.

LAKATOS, I., (1970), «La falsación y la metodología de los programas de investigación científica»,

en LAKATOS I. y MUSGRAVE A., eds., 1975.

— (1978), La metodología de los programas de investigación científica. Madrid, Ed. Alianza

Universidad, 1989.

LAKATOS, I. y MUSGRAVE, A., (1970), (Eds.), La crítica y el desarrollo del conocimiento. Barcelona,

Ed. Grijalbo, 1975.

LAUDAN, L., (1977), El progreso y sus problemas. Madrid, Ed. Encuentro, 1986.

LEONTIEF, W., (1971), «Theoretical Assumptions and Non Observed Facts». American Economic

Review, Vol. LXI, pp. 1-7.

BIBLIOGRAFÍA

334

LESTER, R., (1947), « Marginalism, Minimum Wages and Labour Markets». American Economic

Review, núm. 36, pp. 135-148.

LICHTENSTEIN, S. y SLOVIC, P., (1971), «Reversal of Preferences Between Bids and Choices in

Gambling Decision», Journal of Experimental Psichology, 89.

LITTLE, D., (1991), Varieties of Social Explanation.Oxford, Ed. Westview Press.

LOPEZ CACHERO, M., (1983), Teoría de la decisión. Madrid, Ed. ICE.

LUCE, D., y RAIFFA, H., (1957), «Individual Decision Making Under Incertainty», en GÄRDENFORS, P.

y SAHLIN, N., (eds.), pp. 48-79, 1988.

MACHINA, M., (1983), «Generalized Expected Utility Analysis and the Nature of Observed

Violations of the Independence Axiom», en GÄRDENFORS, P. y SAHLIN, N., (eds.), pp. 215-239,

1988.

— (1987), «Choice under Uncertainty: Problems Solved and Unsolved», en COOK, K. y LEVI,

M., (eds.), pp. 90-132, 1990.

MACMURRIN, M. C., (1987), Libertad, igualdad y derecho. Barcelona, Ed. Ariel, 1988.

MANDEVILLE, B., (1723), La fábula de las abejas o los vicios privados hacen la prosperidad

pública. México. Ed. Fondo de Cultura Económica, 1982.

MARGOLIS, H., (1982), Selfishness, Altruism & Rationality. Cambridge, Ed. Cambridge University

Press.

MARSHAK, T. A., (1978), «On the Study of Taste Changing Policies». American Economic Review,

Vol. 68, pp. 386-391.

MARTIN, M., y MCINTYRE, L. C., (1994), Reading in the Fhilosophy of Social Science. Cambridge,

Massachusetts, The MIT Press.

MASSEY, G., (1965), «Professor Samuelson on Theory and Realism: Comment». American

Economical Review,, pp. 1151-1172.

MAY, K. O., (1954), «Intransitivity, Utility and the Aggregation of Preference Patterns».

Econometrica, Vol. 22, pp. 1-13.

BIBLIOGRAFÍA

335

— (1977), «Un conjunto de condiciones necesarias y suficientes para la decisión por mayoría

simple». Hacienda Pública Española, Vol. 44, pp. 294-297.

MCCLOSKEY, D., (1993), Si eres tan listo. La narrativa de los expertos en economía. Madrid, Ed.

Alianza.

MCKINSEY, J. C., SUPRES, P. y SUGAR, A., (1953), «Axiomatic Foundations of Classical Particle

Mechanics». Journal of Rational Mechanics and Analysis, Vol. 2, pp. 273-289.

MILL, J. S., (1843), A System of Logic Ratiocinative and Inductive. Londres, Ed. Routledge &

Kegan, 1973.

— (1861), El utilitarismo. Buenos Aires, Ed. Aguilar, 1980.

MOE, T. M., (1979), «On the Scientific Status of Rational Choice Theory». American Journal of

Political Science, núm. 23, pp. 215-243.

MOULINES, C., (1982), Exploraciones metacientíficas. Madrid, Ed. Alianza Universidad.

MOSTERIN, J., (1987), Racionalidad y acción humana. Madrid, Ed. Alianza.

MUELLER, D., (1979), Elección pública. Madrid, Ed. Alianza, 1984.

MUGUERZA, J., (1990), Desde la perplejidad. México, Madrid, Ed. Fondo de Cultura Económica.

MUSGRAVES, R. y P., (1992), Hacienda pública. Madrid, Ed. Mcgraw Hill.

NAGEL, E., (1961), La estructura de la ciencia. Problemas de la lógica de la investigación

científica. Buenos Aires, Ed. Paidós, 1968.

— (1963), «Assumptions in Economic Theory». American Economic Association, pp. 211-219.

NASH, J. F., (1996), Essays on Game Theory. Cheltenham, Ed. Edward Elgar.

NIEMI, G. y RIKER, H., (1976), «La elección de los sistemas de votación», en COLOMER, J., (comp.),

pp. 463-490, 1991.

OLSON, M., (1965), La lógica de la acción colectiva. México, Ed. Limusa, 1992.

— (1982), Auge y decadencia de las naciones. Barcelona, Ed. Ariel, 1986.

OVEJERO, F. (1987), De la naturaleza a la sociedad.. Barcelona, Ed. Península.

— (1988), «La racionalidad en las teorías económicas». Arbor, Vol. 511, pp. 45-79.

BIBLIOGRAFÍA

336

— (1991), «Economía moral del mercado». Arbor, Vol. 550, pp. 43-70.

— (1994), Mercado, ética y economía. Barcelona, Ed. Icaria.

PABLOS, L., (1990), «Teoría de la elección pública: últimas líneas de investigación». Hacienda

Pública Española, Vol. 115, pp. 43-67.

PESSEMIER, E., (1978), «Stochastic Properties of Changing Preferences». American Economic

Association, Vol. 68, pp.380-385.

PIGOU , A, C., (1920), The Economic of Welfare. Londres, Ed MacMillan.

PLOTT, CH., (1967), «A Notion of Equilibrium and its Possibility under Majority Rule». American

Economic Review, pp.787-806.

PLOTT, CH. y LEVINE, M. A., (1978), «Model of Agenda Influence on Committee Decisions».

American Economic Review, Vol. 68, pp.146-160.

POLLACK, R., (1978), «Endogenous Tastes in Demand and Welfare Analysis». American Economic

Review, Vol.68, pp. 374-377.

POPPER, K. R., (1934), La lógica de la investigación científica. Madrid, Ed. Tecnos, 1962.

— (1944), La miseria del historicismo. Madrid, Ed. Alianza, 1987.

— (1945), La sociedad abierta y sus enemigos. Barcelona, Ed. Paidós, 1981.

— (1963), El desarrollo del conocimiento científico. Conjeturas y refutaciones. Buenos Aires,

Ed. Paidós, 1967.

— (1967), «La explicación en las ciencias sociales. (La racionalidad y el status del principio de

racionalidad)». Revista de Occidente, núm. 65, pp. 133-146, 1968.

— (1972), Conocimiento objetivo. Madrid, Ed. Tecnos, 1982.

RAWLS, J., (1971), Teoría de la justicia. México, Ed. Fondo de Cultura Económica, 1978.

RESCHER, N., (1988), La racionalidad. Madrid, Ed. Tecnos, 1993.

— (1992), Razón y valores en la era científico tecnológica. Barcelona, Ed. Paidós, 1999.

RIKER, W., (1961), «Voting and the Summation of Preferences: An Interpretive Bibliographical

Review of Selected Developments During the Last Decade». The American Political Science

BIBLIOGRAFÍA

337

Review, Vol. LV, pp. 900-911.

— (1980), «Implicaciones del desequilibrio de la regla de la mayoría para el estudio de las

instituciones», en COLOMER, J., (comp.), pp. 515-549, 1991.

RIKER, W. y BRAMS, S., (1973), «La paradoja del intercambio de votos», en COLOMER, J. (comp.), pp.

551-590, 1991.

RIKER, W. y ORDESHOOK, P., (1968), «Una téoría del cálculo de votar», en COLOMER, J., (comp.), pp.

299-335, 1991.

ROBBINS, L., (1932), Ensayo sobre la naturaleza y significación de la ciencia económica.

México, Ed. Fondo de Cultura Económica, 1980.

— (1938), «Interpersonal Comparison of Utility: A Comment». Economic Journal, nº 48, pp. 635-

641.

ROMERO, C., (1993), «Economía ambiental: aspectos básicos». Revista de Occidente, Vol. 149,

pp. 25-39.

ROSENBERG, A., (1992), Economics. Mathematical Politics or Science of Diminishing Returns?

Chicago, Ed. University of Chicago Press.

ROTWEIN, E., (1973), «Empiricism and Economic Method: Several Views Considered». Journal of

Economic Issues, Vol. VII, pp.361-382.

RUDNER, R., (1980), Filosofía de la ciencia social. Madrid, Ed. Alianza Universidad.

RYAN, A., (1973), La filosofía de la explicación social. Madrid, Fondo de Cultura Económica,

1976.

SAMUELSON, P., (1938), «Comsumption Theorems in Terms of Overcompensation Rather than

Indifference Comparisons». Economica, Vol. 20, núm. 77, pp. 1-9.

— (1950), «La evaluación del ingreso nacional real», en ARROW, K. J. y SCITOVSKI, T., (comps.),

pp. 27-66, 1974.

— (1954), «La teoría pura del gasto público», en ARROW, K. J. y SCITOVSKI, T., (comps.), pp. 227-

231, 1974.

— (1963), «Problems of Methodology - Discussion». American Economic Review, pp.231-236.

BIBLIOGRAFÍA

338

SANCHEZ, J. y SANTIAGO, R., (1998), Utilidad y bienestar. Madrid, Ed. Síntesis.

SAVAGE, L., (1951), «The Theory of Statistical Decision», American Statistical Association

Journal, núm. 46, pp. 57-67.

— (1972a), «The Sure-Thing Principle», en GÄRDENFORS, P. y SAHLIN, N. (eds.), pp. 80-85, 1988.

— (1972b), The Foundations of Statistic. Nueva York, Ed. John Wiley.

SCHELLING, T., (1978), Micromotives and Macrobehaviour. Nueva York, Ed. W. W. Norton and

Co.

SCHUMPETER, J., (1954), Historia del análisis económico. Barcelona, Ed. Ariel, 1982.

SEN, A., (1966), «A Posibility Theorem on Majority Decisions». Econometrica,Vol. 34, pp. 491-

499.

— (1970a), Elección colectiva y bienestar social.Madrid, Ed. Alianza Universidad, 1976.

— (1970b), «La imposibilidad de un liberal paretiano», en HAHN, F. y HOLLIS, M., (comps.), pp.

251-262, 1986.

— (1973a), «Behaviour and the Concept of Preference». Economica, Vol. XL.

— (1973b), Sobre la desigualdad económica. Barcelona, Ed. Crítica, 1979.

— (1976), «Los tontos racionales: una crítica de los fundamentos conductistas de la teoría

económica», en HAHN, F. y HOLLIS, M., (comps.), pp. 172-217, 1986.

— (1987), Sobre ética y economía. Madrid, Ed. Alianza Universidad, 1989.

— (1992), Nuevo exámen de la desigualdad. Madrid, Ed. Alianza, 1995.

— (1997), Bienestar, justicia y mercado. Barcelona, Ed. Paidós.

SEN, A. K. y WILLIAMS, B., (1982), Utilitarianism and Beyond. Cambridge, Cambridge University

Press.

SHAPIRO, I. y GREEN, D., (1994), Pathologies of Rational Choice Theory, New Haven y Londres,

Ed. Yale University Press.

SHUBIK, M., (1964), (ed.), Game Theory and Related Approachs to Social Behaviour. New York,

Ed. John Wiley and Sons.

BIBLIOGRAFÍA

339

SIMON, H., (1957), Models of Man. Nueva York, Ed. John Wiley and Sons.

— (1963), «Problems of Methodology - Discussion». American Economic Review, pp. 229-231.

— (1976), «De la racionalidad sustantiva a la procesal», en HAHN, F. y HOLLIS, M., (comps.), pp.

130-171, 1986.

— (1978), «Rationality as Process and as Product of Thought». American Economic Review,

Vol. 68, pp.1-16.

— (1997), Models of Bounded Rationality. Cambridge, The MIT Press.

SMITH, A., (1776), La riqueza de las naciones. Madrid, Ed. Alianza, 1996.

SNEED, J., (1989), «Micro-economic Models of Problem Choice in Basic Science», Erkenntnis,

Vol. 30, pp. 207-224.

— (1971), The Logical Structure of Mathematical Physis. Dordrecht, Ed. Reidel.

SOMMER, L., (1954), «Exposition of a New Theory on the Measurement of Risk». Econometrica,

Vol. 22, núm. 1, pp. 23-36.

STEGMÜLLER, W., (1970), Teoría y experiencia. Barcelona, Ed. Ariel, 1979.

— (1973), Estructura y dinámica de teorías. Barcelona, Ed. Ariel, 1983.

— (1979), La concepción estructuralista de las teorías. Madrid, Ed. Alianza Universidad, 1981.

STIGLER, G. y BECKER, G., (1977), «De Gustibus non est Disputandum». American Economic

Review, Vol. 67, pp.76-90.

SUPPE, F., (1974), La estructura de las teorías. Madrid, Editora Nacional, 1979.

SUPPES, P., (1957), Introduction to Logic. Nueva York, Ed. Van Nostrand.

TAYLOR, M., (1976), Anarchy and Cooperation. Nueva York, Ed. Wiley.

TOBOSO, F., (1992), «Metodología de la teoría de la elección pública». Hacienda Pública

Española, Vol. 122, pp. 95-102.

TOULMIN, S., (1961), An Inquiry into the Aims of Science. Bloomington, Ed Indiana University

Press.

— (1972), El conocimiento humano. Madrid, Ed. Alianza, 1977.

BIBLIOGRAFÍA

340

TULLOCK, G., (1977), «La irrelevancia general del teorema general de imposibilidad». Hacienda

Pública, Vol. 44, pp.284-295.

— (1959), «Problemas de la votación mayoritaria», en ARROW, K. J. y SCITOVSKI, T.(comps.),

pp. 215-226, 1974.

VAN FRASSEN, B. C., (1980), The Scientific Image. Oxford, Oxford University Press.

VAN PARIJS, P., (1991), ¿Qué es una sociedad justa? Barcelona, Ed. Ariel, 1993.

VARIAN, H. R., (1987), Microeconomía intermedia. Un enfoque moderno. Barcelona, Ed. Bosch,

1993.

VON NEUMANN, J. y MORGENSTERN, O., (1953), Theory of Games and Economic Behaviour.

Princeton, Princeton University Press.

WEINTRAUB, E. R., (1985), General Equilibrium Analysis: Studies in Appraisal. Cambridge, Ed.

Cambridge University Press.

ZAPATERO, J. C., (1987), Lecciones de microeconomía. Madrid, Ed. Nerea.

ZECKHAUSER, R., (1977), «La regla de mayoría con loterías como alternativas». Hacienda Pública

Española, Vol. 44, pp. 298-303.

ZINTL, R., (1995), Comportamiento político y elección racional. Barcelona, Ed. Gedisa.

341

ÍNDICE DE FIGURAS.

Figura I ........................................................................................................................... 30

Figura II ......................................................................................................................... 31

Figura III ........................................................................................................................ 32

Figura IV ........................................................................................................................ 34

Figura V ......................................................................................................................... 35

Figura VI ........................................................................................................................ 37

Figura VII ...................................................................................................................... 42

Figura VIII ..................................................................................................................... 43

Figura IX ........................................................................................................................ 51

Figura X ......................................................................................................................... 51

Figura XI ........................................................................................................................ 68

Figura XII ...................................................................................................................... 73

Figura XIII ................................................................................................................... 103

Figura XIV ................................................................................................................... 132

Figura XV .................................................................................................................... 161

Figura XVI .................................................................................................................... 190

342

INDICE DE TABLAS

Tabla I ............................................................................................................................. 55

Tabla II ........................................................................................................................... 59

Tabla III ......................................................................................................................... 62

Tabla IV ......................................................................................................................... 73

Tabla V .......................................................................................................................... 73

Tabla VI ......................................................................................................................... 75

Tabla VII ........................................................................................................................ 76

Tabla VIII ...................................................................................................................... 78

Tabla IX ......................................................................................................................... 79

Tabla X .......................................................................................................................... 79

Tabla XI ......................................................................................................................... 79

Tabla XII ...................................................................................................................... 110

Tabla XIII .................................................................................................................... 110

Tabla XIV .................................................................................................................... 116

Tabla XV ..................................................................................................................... 121

Tabla XVI .................................................................................................................... 134

Tabla XVII ................................................................................................................... 146

Tabla XVIII ................................................................................................................. 146

Tabla XIX .................................................................................................................... 153

Tabla XX ..................................................................................................................... 153

Tabla XXI .................................................................................................................... 153

Tabla XXII ................................................................................................................... 288

Tabla XXIII ................................................................................................................. 289

Tabla XXIV ................................................................................................................. 293

Tabla XXV .................................................................................................................. 293