ARQUITECTURA CRITICA

Proyectos, Obras y Documentos de Arquitectura Contemporánea

Es de andar el país que traigo el rostro
azotado de polen, azotado
por un mapa desmedido,
por una enormidad de olvido largo.

Antología de Juan de Armando Tejada Gómez, Argentina, 1956

Llegamos en sintonía con finales de año, al tercero y ultimo articulo, de la serie sobre indicadores urbanos sustentables.

El objetivo de la primera y segunda parte fue el de introducir el concepto de indicador compuesto o sintético, sus usos y aplicaciones y como se construyen. Para ello comenzamos con los indicadores simples, su diferencia con los compuestos, definir el contexto y concepto de sostenibilidad y finalmente, dar una idea referencial de en donde se pueden llegar a conseguir indicadores e índices, de alto grado de seriedad que compondrán el indicador compuesto.

En esta tercera parte nos abordaremos las metodologías de construcción de los Indicadores compuestos.

Construcción de indicadores compuestos

Habíamos dicho que un indicador compuesto es in índice, producto del la sinterización interrelacionada de varias variables o sub-indicadores.

Su proceso es bastante complejo y requiere un alto grado de rigor metodológico.

La construcción de un indicador compuesto, requiere de dos condiciones básicas: la definición clara del atributo que se desea medir, lo que dará al indicador un sustento conceptual y la existencia de información confiable para poder realizar la medición, lo que le otorgará validez.

Estas condiciones deben cumplirse antes de considerar los aspectos metodológicos de la construcción del indicador compuesto.

Pasos metodológicos esenciales sobre la base de un esquema de construcción por etapas:

  1. Desarrollo de un marco conceptual o teórico
  2. Selección de los indicadores
  3. Análisis multivariado
  4. Imputación de datos perdidos
  5. Normalización de los datos
  6. Ponderación de la información
  7. Agregación de la información
  8. Análisis de robustez y sensibilidad
  9. Diseño de la información

1.- Desarrollo de un marco conceptual o teórico

El marco teórico o conceptual en el cual estarán inscriptos nuestros indicadores es de un valor fundamental, ya que será el punto de partida de los mismos y el que justificará su construcción.

Este debe ser claro y entendible, ya que en base a esto el indicador quedara mejor definido y también se verán mejor explicitadas sus relaciones entre las distintas variables que lo componen.

“Es necesario tener categorizado, en forma amplia, el contexto de análisis y tener comprensión del fenómeno a medir. Esta afirmación parece obvia, sin embargo, debe quedar claro que lo que queda mal definido, será erróneamente medido.” (Nardo et al, 2005).

Siempre inserto dentro del contexto de la sostenibilidad, el marco tórico se encontrara a su vez reglamentado y/o restringido por convenios internacionales y según el país y nivel jurisdiccional, por un marco legal existente.

En esta etapa es necesario tener claramente identificados los criterios sobre los cuales se seleccionarán los indicadores fuente y documentar todo el proceso.

Estos pueden consistir en estructuras temáticas básicas, como ser los correspondientes al ámbito urbano, en las temáticas socioeconómica, ambiental e institucional, que a su vez se subdividirán en sub-temas que aborden los diferentes rubros con un mayor grado de detalle.

Los marcos conceptuales parten de distintas posiciones teóricas con respecta a las interrelaciones y componentes entre la sociedad y su hábitat. Y actualmente existen varios marcos referenciales posibles. La adopción de uno u otro dependerá de las necesidades, disponibilidad de información y preconceptos asumidos por los técnicos y analistas.

El enfoque a utilizar en estos casos será el sistémico, que es el que intenta representar aunque más no sea parcialmente la complejidad existente en la ciudad.

Casi todos los marcos conceptuales plantean al Desarrollo Sostenible como un concepto basado en pilares, destacándose en algunas propuestas sus correspondientes interacciones.

Estos pilares referidos generalmente a los ámbitos económico, social, medio ambiental e institucional, pueden ser encontrados en:

  • Económico: Dada la gran importancia otorgada a la medición del crecimiento económico, una vasta cantidad de información al respecto se encuentra disponible y esto ha generado la producción de estadísticas e indicadores de relativa calidad. Como han sido el desarrollo e implementación del Sistema de Cuentas Nacionales 2008 (SCN 2008) o los Sistemas de Contabilidad Ambiental y Económica Integrada (SCAEI), como el Sistema de Cuentas Económicas y Ecológicas de México (SCEEM) o el Sistema de Contabilidad Económico-Ambiental Integrado de Colombia (COLSCEA).
  • Social: En el marco general de la medición de los ODM, Objetivos de desarrollo del Milenio, se ha generado en numerosas agendas nacionales e internacionales, la prioridad de la medición de la pobreza y sus determinantes como forma de abordaje integrado de políticas de de desarrollo con equidad. Por este motivo, también encontramos cantidad de información confiable relativa a la salud y el bienestar, la movilidad demográfica, la equidad de género, la pobreza y desigualdad, y el acceso a servicios básicos.
  • Ambiental: Debido a que el tema ambiental ha tomado relevancia en los últimos años, los países y agencias de las Naciones Unidas, han realizado un gran esfuerzo en reunir datos confiables, que fundamentalmente se resumen en la dos bases de datos mencionadas en la segunda parte, como ser BADEIMA (Base de Datos de Estadísticas e Indicadores de Medio Ambiente desarrollada por la CEPAL), y la constitución de un grupo de trabajo en el contexto de la Conferencia Estadística de las Américas cuyo objetivo es la búsqueda de homologación de definiciones, estándares y continuidad en la medición de estadísticas ambientales. Las ultimas Conferencias sobre el Cambio Climático, han llevado a los temas ambientales al mismo nivel de importancia y prioridad que los económico o los sociales.
  • Institucional: Estos temas han adquirido relevancia, mas que nada, cuando se requiere establecer medidas que incentiven o inciten a la ciudadanía en su conjunto, a cambiar sus hábitos de comportamiento en pro de la sustentabilidad, con miras a atender la situación y las necesidades de las futuras generaciones y respetar la biodiversidad del planeta.

2.- Selección de los indicadores

En función del marco conceptual tendremos una amplia gama de cuales son los indicadores que se desean sintetizar. Estos los buscaremos entre los datos estadísticos, nacionales, regionales e internacionales, según sea el caso.

En la segunda parte de este artículo hicimos referencia a algunas de ellas en los ámbitos internacionales y regionales de América Latina.

En el ámbito Nacional y local respectivamente nos tendremos que remitir a los datos oficiales o los recabados por agencias, organizaciones, unidades de investigación, etc. reconocidas y serias, que sean tomadas como ejes de referencia por todos.

Este paso es de fundamental importancia ya que la robustez, o calidad del resultados obtenido depende, lógicamente de la fidelidad de los datos con que lo alimentemos.

La Guía Metodológica de la CEPAL, básica de este articulo, agrega que en el caso especial de América Latina, “la elección de los indicadores se ve limitada por la escasez de información estadística y la imposibilidad de que parte de la información disponible esté armonizada a partir de estándares internacionales. Esto limita la posibilidad de establecer comparaciones entre países.”

Por otro lado, es importante prestar atención a los indicadores que dependen de medidas de tamaño o capacidad, como ser el tamaño de su economía, o la cantidad y densidad de población, o la superficie total de una región o ciudad. Es por esto que a la hora de establecer una comparación entre ciudades de una misma nación o entre diferentes países que sea realista, es necesario en estos casos normalizar las escalas y trabajar con medidas relativas, que pueden estar expresadas por unidad de PIB o en términos per cápita o por hectáreas, por ejemplo.

Un punto fundamental a tener en cuenta en este proceso de selección es el objetivo o uso que se dará al indicador compuesto a construir, ya que la selección deberá estar enfocada de manera particular dependiendo de si el objetivo es de diagnóstico, de evaluación, de desempeño o de pronóstico sobre escenarios futuros.

La identificación de algunos conjuntos de indicadores que la Guía de la CEPAL toma como importantes para la construcción de indicadores compuestos de Desarrollo Sostenible a nivel de la Región, como son:

Este es un primer proceso de validación de la utilidad de los indicadores seleccionados, en el cual pueden manifestarse problemas de ausencia parcial de información.

3.- Análisis multivariado descriptivo

El respeto de los criterios estadísticos es fundamental a la hora de construir un indicador compuesto. La naturaleza de los datos y la relación entre ellos debe ser cuidadosamente analizada.

Para esto el análisis combinado de la información puede realizarse en base de dos criterios:

  • Análisis de relaciones entre variables: agrupando las variables en sub-indicadores, definiendo una estructura anidada y determinando si la selección de éstas, resulta apropiada para describir el fenómeno en cuestión. Para ello es posible recurrir a técnicas estadísticas como es el Análisis de Componentes Principales (ACP) que permite estudiar cómo se interrelacionan las dimensiones del fenómeno estadístico que contemplará el indicador compuesto. Fue un método creado en 1901 desde un enfoque geométrico, que posteriormente fue planteado de manera algebraica en 1933 y se popularizó mucho a partir del uso de la computadora, siendo actualmente uno de los métodos más utilizados ya que permite reducir considerablemente la dimensionalidad de un conjunto de datos. El objetivo del ACP es explicar la mayor parte de la variabilidad total observada en un conjunto de variables con el menor número de componentes posibles (Uriel, 1985). Dado que existen numerosas metodologías alternativas al ACP, se hace referencia al análisis de factores o análisis factorial y al uso de los Coeficientes Alfa de Cronbach (1951).
  • Estudio de relaciones entre unidades de análisis: estableciendo grupos de unidades de análisis vinculadas por su similitud: Para ello se puede recurrir al Análisis de Conglomerados (Clustering análisis). Esta es una herramienta estadística que permite clasificar en grupos (o “clusters”), distintas unidades de análisis a partir del procesamiento de numerosos indicadores que describen el estado de dichas unidades. Su objetivo es establecer tipologías para las unidades de análisis de aquéllas que sean homogéneas entre sí y donde los grupos sean heterogéneos entre sí.

En el contexto de la construcción de indicadores compuestos, este análisis puede ser útil para establecer conjuntos de unidades de análisis agrupadas por su semejanza y puede utilizarse como:

  1. Un método estadístico de agregación de indicadores.
  2. Una herramienta de diagnóstico para explorar cada elección de distintas alternativas al momento de construir el indicador compuesto.
  3. Un procedimiento para agrupar unidades de análisis por su similitud y a partir de allí imputarle a algunos de ellos datos perdidos con el fin de disminuir la dispersión de la información.
  4. Una técnica de análisis de los resultados.

Por lo general los principales paquetes de software estadístico entre los que se destacan el STATISTICA, el SAS, el SPSS y los programas de aplicaciones matemáticas como el MatLab por ejemplo, tienen disponibles módulos que facilitan la implementación de estas técnicas de análisis multivariado. En el caso de no disponerse de estos paquetes de información existen también herramientas de libre acceso que permiten realizar estos cálculos.

4.- Imputación de datos perdidos

Al momento de efectuar la construcción del indicador es muy probable que nos encontremos con algunos datos faltantes. Para esto existen algunos métodos para imputar datos perdidos, es muy factible que en el caso de algunas variables ni siquiera se disponga de la información básica mínima necesaria.

Actualmente, las tecnologías de información y comunicación disponibles, permiten corregir este tipo este inconveniente.

Como este tipo de análisis puede conducir a problemas en posteriores etapas, dado que puede generar errores en los análisis que conduzcan al final a conclusiones incorrectas, por esto es muy importante el rigor metodológico que se utilice.

Se suelen considerar tres posibles aproximaciones para lidiar con datos perdidos (Little & Rubin, 2002):

  • Eliminar la información: en este caso se omite el registro de todo el análisis, con el consiguiente perjuicio de que podría haber diferencias sistemáticas entre usar o no la muestra completa, producir sesgos e incrementos en la dispersión.
  • Imputación simple de datos perdidos: siguiendo a Little y Rubin (2002), la asignación debe realizarse a partir de una distribución de probabilidades estimada a partir de la información disponible. Se puede recurrir a dos aproximaciones, la modelización implícita y la explícita. La asignación simple de datos perdidos puede dar lugar la subestimación de la varianza.
  • Imputación múltiple de datos perdidos: en este caso se recurre a técnicas más sofisticadas como los algoritmos de Monte Carlo via el uso de cadenas de Markov. Consiste en asignar los datos perdidos numerosas veces de manera de disponer de varios conjuntos completos de resultados para cada uno de los cuales se estiman los parámetros de interés junto con sus respectivas medias y desviaciones estándar. Cualquier metodología de asignación puede utilizarse.

De todas maneras, explican los expertos, que el uso de estas herramientas de imputación no puede sustituir totalmente la información perdida, por lo que el primer criterio para el tratamiento de datos perdidos debe ser el tratar de recuperar desde las fuentes originales la información. Y que por otro lado se debe tener presente que el abuso de métodos de imputación de valores perdidos (en porcentaje importante de la información) puede conducir a análisis que no reflejen con precisión lo que ocurre en realidad.

5.- Normalización de los datos

Generalmente, en el caso de la construcción de un indicador compuesto de desarrollo sostenible, muchas de las variables que se seleccionan no se encuentran en la misma escala de medición.

Antes de iniciar el proceso de normalización, es importante el identificar valores atípicos (o “outliers”). Se trata de registros extraños cuyo valor es mucho mayor o menor de lo esperado y por ello, se escapan de la distribución del proceso que da lugar a los datos, con lo cual no tienen las características del resto de ellos.

La presencia de datos atípicos puede producir sesgos indeseables; por eso a veces es recomendable removerlos o truncar su valor a un valor extremo como etapa previa al proceso de normalización. Esto debe hacerse con bastante precaución, ya que los datos atípicos podrían representar información importante del sistema bajo análisis.

Existen dos formas de encarar el proceso de normalización de la información.

Una de ellas concierne a las unidades de medida, las escalas y las magnitudes de las variables per se. La otra se refiere a la representación de estas en términos comparativos, según los valores que adquieran las unidades de análisis.

  • Transformaciones de escala y corrección de asimetrías: Primero que nada y antes de proceder a la normalización, es necesario atender a las escalas y unidades de medida con que están expresados ya que estas pueden afectar la normalización. Incluso muchas veces es probable que una misma variable se exprese con unidades diferentes, como suele suceder por ejemplo, con la temperatura media anual que puede estar medida tanto en grados Celsius como en grados Fahrenheit. Por esto, podría ser necesario estandarizar el valor de alguna variable siguiendo el patrón de unidades adoptado por una unidad de análisis considerada como “de referencia”.
    Existe una familia de transformaciones de variables muy utilizada para resolver los problemas de falta de normalidad y de heterocedasticidad denominadas como las transformaciones de Box-Cox (1964).
  • Métodos de normalización: A continuación se detallan las principales técnicas para normalizar los datos de manera tal de facilitar la mejor comparación posible entre unidades de análisis. La elección de una u otra metodología, dependerá de las características de cada indicador y formará parte del juicio experto del analista. Empleo de tasas o porcentajes de variación: si se posee información de una variable en varios períodos del tiempo, se puede trabajar con las tasas de variación (o su porcentaje de variación).
  • Ordenamiento de indicadores entre unidades de análisis: este metodo es muy simple y consiste en establecer un ordenamiento o “ranking” de sus valores. Cuando se dispone de información en varios instantes del tiempo el ordenamiento se hace en cada período por separado.
  • Estandarización (z-score): es posible estandarizar la variable calculando el valor estadarizado también llamado valor z (ó z-score). Cuando se trabaja con variables registradas a lo largo del tiempo, se suele estimar la media y desviación estándar en referencia a un año base que usualmente será el primer año en que se dispone de la información.

  • Re-escalamiento: en este caso se considera el rango de los valores que la variable adquiere. Como el reescalamiento opera sobre los valores extremos de la variable, es importante verificar que no se esté en presencia de registros atípicos ya que la comparabilidad realizada sobre la base de este tipo de valores, distorsionaría considerablemente el análisis y concentraría los valores típicos en un estrecho rango del intervalo.

  • Distancia a una unidad de análisis de referencia: un tipo de medición de distancia que puede emplearse es: cuya única diferencia es centrar los valores resultantes alrededor del cero.
  • Categorización de escalas: se le asigna un rango de categorías a cada indicador, por ejemplo: una, dos, tres, cuatro o cinco estrellas, o se establece un semáforo con categorías: verde, amarillo, rojo. También se puede establecer una escala de logros cualitativa, por ejemplo: objetivo alcanzado: totalmente, parcialmente o no alcanzado. A cada categoría se le asigna un rango de valores dentro del cual esta es válida. El principal inconveniente de este método es que tiende a producir la pérdida sustancial de información cuantitativa que podría ser relevante.
  • Categorización de valores por encima o debajo del promedio: en este caso la metodología consiste en establece un umbral de tolerancia, a partir del cual se determinan los casos en que las unidades de análisis registran valores de una variable por encima, debajo o alrededor del valor del umbral. Sus principales desventajas pueden ser: que la elección del umbral pareciera arbitraria, ya que está sujeta a la experiencia que el analista tiene acerca de la información con que trabaja; o que al establecerse rangos categorizados, se pierde la información nominal de la variable procesada.

6.- Ponderación de la información normalizada

Esta es la etapa crucial del proceso, la cual consiste en componer los múltiples indicadores y variables seleccionados en el indicador compuesto propiamente dicho. Pare ello se requiere agregar la información de manera uniforme o, de otro modo, estableciendo diferentes factores de peso que ponderen la importancia relativa de cada indicador en el agregado.

La manera en que se pese la información disponible definirá en forma determinante el valor final de indicador; por ello la metodología de agregación debe ser claramente explicitada y de fácil y transparente reproducción.

Existen distintas pautas de agregación que consideran diversas técnicas, cada una de las cuales supone asumir ciertos supuestos de partida. Es importante considerar que, independientemente de la metodología adoptada, ponderar un conjunto de variables para agregarlas en un único indicador, termina siendo en esencia un juicio de valores que debería explicitar el objetivo que subyace al diseño del indicador. Por este motivo, además de trabajar a partir de un marco conceptual consistente, se suele recurrir también, a la opinión experta y a la búsqueda de consensos con grupos de interés que sinteticen las prioridades políticas y los puntos de vista.

De acuerdo con la calidad de la información estadística, seria razonable asignarle una mayor presencia a aquellas variables más confiables.

Las principales técnicas metodológicas de ponderación usualmente adoptadas son:

  • Establecimiento de pesos equiproporcionales: La primera posibilidad que se le plantea al analista es pesar las variables de manera equiproporcional. (Ej. Índice de Desarrollo Humano). Este criterio facilita el cálculo y funciona bien cuando todas las dimensiones del tema bajo análisis son igualmente prioritarias y están equilibradas, es decir que, son representadas con una cantidad similar de sub-indicadores.
  • Métodos participativos de ponderación: Contempla la ponderación estableciendo pesos relativos a cada variable que compone el indicador sintético, a partir de metodologías de tipo participativo en las que se consulta:

a) La opinión de expertos, que contribuyen con su conocimiento, priorizando algunas variables por sobre otras. Estas metodologías eluden la acusación de manipulación que suelen imputárseles a las técnicas sofisticadas, a la vez que le otorgan legitimidad.
b) La opinión pública y que queden reflejadas las preocupaciones de la población. Este tipo de procedimiento permite que los grupos de interés (stakeholders), involucrados en el tema, puedan expresar sus preocupaciones y preferencias, contribuyendo a crear el consenso necesario al momento de la toma de decisiones sobre acciones concretas de política basadas en el uso del indicador.

  • Ponderación mediante cálculos de regresión: Utilizando modelos de regresión lineal pueden proporcionar valiosa información acerca del vínculo entre un conjunto numeroso de variables (consideradas como independientes) y una variable dependiente. Hay que tener en cuenta que, se parte de la suposición de que las variables tienen un comportamiento lineal en relación con objetivo planteado y deberían ser independientes entre sí puesto que si hay multicolinealidad el análisis se torna deficiente. A pesar de estas limitaciones, el uso de modelos de regresión lineal puede ser útil para cuantificar el efecto relativo de cada objetivo de política, representado por cada variable, y los objetivos globales a ser alcanzados así como para validar un conjunto de factores de ponderación calculados a partir de otra técnica.
  • Análisis de componentes principales (ACP): Metodologías como el análisis de componentes principaleso el análisis de factores, ya descritas en la sección de análisis multivariado descriptivo, también se pueden utilizar para la etapa de ponderación, en particular, pueden ser útiles cuando se está en presencia de colinealidad ya que sirven para componer variables de acuerdo a su posible mutua asociación y capturar conjuntamente la información común que poseen. Se debe tener en cuenta que la asociación entre variables se esta dando en la dimensión estadística de los datos, no en el plano interpretativo, por lo cual los pesos o coeficientes que se obtienen pueden ser negativos.

Teniendo identificadas las componentes, se seleccionan las que dan lugar a la mayor variabilidad total de acuerdo a la siguiente regla empírica:

  1. Que la componente tenga asociada un autovalor superior a la unidad,
  2. Que individualmente contribuya al menos en un 10% a la varianza total,
  3. Que las componentes ordenadas de mayor a menor influencia, lleguen a explicar acumuladamente, más del 70% de la varianza.

Luego se pueden expresar las componentes como las combinaciones lineales de las variables. Debe considerarse que estos tipos de técnicas buscan encausar la homogeneidad más que representar la pluralidad de comportamientos y sólo pueden aplicarse cuando se está en presencia de correlaciones significativas.

  • Análisis envolvente de datos: El análisis envolvente de datos, mejor conocido como Data Envelopment Analysis – DEA, es una herramienta surgida del análisis económico que ha sido utilizada para estudiar el desempeño de unidades productivas, sectores y países a partir de mediciones de productividad y eficiencia. Se trata de una metodología que se basa en analizar el comportamiento comparado de las unidades de análisis. Se considera que las variables seleccionadas están normalizadas de tal manera que cuanto mayor sea su valor, mejor será el desempeño de la dimensión que la variable describe. Tiene la ventaja de establecer para cada unidad de análisis una comparación del desempeño en relación con otra, resulta ser el mejor caso a ser empleado como medida de comparación ya que surge de una combinación lineal de los casos de mejor desempeño. Posee ciertas desventajas y es que al ser un método matemáticamente sofisticado, hasta cierto punto puede ser visto como una caja negra que sustituye la opinión de los expertos mediante la aplicación realizada por el analista y en parte se pierde transparencia y objetividad.
  • Modelos de componentes no observados: La idea detrás de esta metodología, es que las variables que compondrán el indicador sintético se suponen dependientes de una variable no observada más un término de error. A través de la estimación de la variable no observada, será posible obtener algún conocimiento acerca de las relaciones que pudieran darse entre el indicador compuesto y sus variables constitutivas.
    Esta metodología, si bien resulta interesante pues no depende de formular ninguna representación ad hoc, tiene la desventaja de dar lugar a problemas de identificación cuando las variables intervinientes están altamente correlacionadas.
  • Ponderación usando Procesos de Jerarquía Analítica: Esta es otra técnica participativa de ponderación, el Analytic Hiererchy Process (AHP), consiste en una herramienta diseñada en los setenta para apoyar la toma de decisiones multicriterio. Intenta conciliar prioridades cuando se tienen evaluar múltiples aspectos tanto cuantitativos como cualitativos en una decisión y por eso puede ser útil como método racional para estimar los factores de ponderación de las variables que componen un indicador sintético. Su principal ventaja es que transparenta el proceso de definición de los pesos sobre la base de un procedimiento ampliamente utilizado. Pero dado que se deben hacer numerosas comparaciones entre pares de variables, puede tornarse tediosa su sistematización. Como suele suceder con los métodos participativos, los resultados dependerán del grupo de expertos seleccionados para priorizar las variables.
  • Análisis Conjunto: El análisis conjunto, llamado también modelo composicional multiatributo, es una técnica estadística utilizada en las ciencias sociales aplicadas, particularmente en el marketing, la administración del producto y la investigación operativa. Tiene un carácter eminentemente participativo. Su objetivo es determinar qué combinación de un número limitado de atributos es el más preferido por un grupo de encuestados. Valoriza las alternativas desagregando las variables. Busca establecer una medida de los juicios o percepciones de los consultados sobre un conjunto de escenarios o alternativas.

Un análisis típico involucra un número reducido de variables y se pueden definir los niveles para cada una, según sea una variable económica, social, institucional o ambiental. La principal desventaja de esta metodología es que supone el diseño de una encuesta que puede complicarse cuando el número de variables y niveles asociados es grande. Ello puede dificultar la evaluación por parte del encuestado. Malhotra (1996)

7.- Agregación de la información

Una vez determinados los factores de ponderación se procede a agregar todas las variables en un indicador sintético, en aquéllos casos en que el método de ponderación utilizado no establece de manera natural un método de agregación subsecuente.

Las principales técnicas de agregación de la información son:

  • Suma de rankings: consiste en sumar, para cada unidad de análisis, el orden o ranking que posee cada una de las variables, en relación con el resto de las unidades de análisis (por ejemplo ciudades). Su principal ventaja es la simplicidad y la supuesta independencia que se logra respecto de los datos atípicos. Aunque, tiende a perder información acerca del valor absoluto de las variables que componen el indicador.
  • Conteo de las variables que superan o exceden una referencia dada: contabilizar el número de indicadores que están por debajo o encima de valores de referencia o umbral adoptado. Este modelo no se ve afectado por la presencia de datos atípicos, sin embargo, también se pierde información de la magnitud que pueden poseer las variables.
  • Media aritmética ponderada: es el método más ampliamente utilizado. Una vez normalizadas las variables y calculados los factores de pesos, se calcula el indicador compuesto. Es deseable que cuando se trate indicadores de sostenibilidad, puede no ser políticamente correcto priorizar alguna de las dimensiones económicas, sociales, ambientales o institucionales, en desmedro de ellas.
  • Promedio geométrico ponderado: similar al caso anterior, pero considerando la media geométrica se van agregando las variables. Si las mismas están expresadas como logaritmos, la media aritmética ponderada es el logaritmo de la geométrica. Tanto en este caso, como en el de las medias aritméticas subyace un razonamiento compensatorio entre variables, lo que supone la existencia de vínculos o compromisos entre estas.

Cuando se piensa que los factores de ponderación de las variables determinan la importancia relativa de estos en la composición del indicador sintético y no se desea que no reflejen la posibilidad de compensaciones entre éstas, algunos autores recomiendan, recurrir a criterios de agregación no compensatorios, como el que se verá a continuación.

  • Aproximaciones multicriterio: En el caso de utilizar numerosas variables para evaluar un conjunto de unidades de análisis y establecer un ordenamiento o ranking para analizar sus desempeños relativos, es muy probable que algunas de las variables favorezcan el desempeño de algunas unidades de análisis, mientras que otras el de otros, creando un cierto conflicto acerca de la forma de realizar el ordenamiento. Para subsanar este inconveniente, se puede apelar a aproximaciones multicriterio (Munda, 2004; Young 1988).

Siempre que un indicador permita establecer un vínculo entre el contexto de análisis y el espacio de decisiones desde donde surgen las opciones de política, el uso de indicadores compuestos queda enteramente justificado.

8.- Análisis de robustez y sensibilidad

Si el indicador se ha diseñado en forma deficiente pueden tener lugar errores de interpretación y producir mensajes poco robustos. Todas las etapas de desarrollo de un indicador compuesto deben ser sometidas al escrutinio de expertos y se debe procurar evitar la presencia de fuentes de subjetividad. Es por ello que una combinación entre el análisis de incertidumbre y de sensibilidad debe llevarse a cabo para incrementar la transparencia del proceso de diseño del indicador. Es necesario juzgar lo realizado críticamente y evaluar la sensibilidad frente a cambios en la elección de las variables pues podría ocurrir que pequeños cambios de la arquitectura del indicador compuesto den lugar a grandes alteraciones de los valores o rankings obtenidos.

En general, las incertidumbres asociadas al diseño de indicadores compuestos pueden vincularse con un número de factores entre los que se incluyen:

  • La elección del modelo para estimar los errores de medición de los datos.
  • El mecanismo y marco metodológico utilizado para incluir o excluir sub-indicadores en el indicador sintético.
  • La forma en que los sub-indicadores son transformados.
  • El tipo de esquema de normalización o estandarización empleado con el fin de eliminar los efectos de escala que pudiera haber.
  • La cantidad de datos perdidos y la elección del método de imputación usado para llenar dichos vacíos.
  • El método de determinación de los factores de peso.
  • Los niveles de agregación de la información si es que se superponen o complementan varios de ellos.
  • La elección de sistema de agregación de los sub-indicadores y variables.

9.- Diseño de la información

El desarrollo de un indicador compuesto deberá estar orientada por una demanda potencial manifestada por diferentes agentes vinculados al área de incumbencia considerado por el indicador. Estos grupos de interés, diversos y dispersos, hace necesario considerar una estrategia comunicacional clara que favorezca su comprensión. Las representaciones en si, suponen una simplificación adicional al proceso de desarrollo del indicador dado que, en general, los tomadores de decisiones suelen destinar poco tiempo al estudio y análisis de los temas, delegando en los cuadros técnicos esta labor y demandan que los resultados les sean presentados de la manera más concisa y sintética posible.

Es allí donde el indicador compuesto juega un rol protagónico debido a la simplificación que éste debería motivar, entendida esta con una connotación manifiestamente positiva.

En de fundamental importancia la forma en que sea presentado el indicador, esta debe comunicar una imagen que facilite su visualización rápida y precisa. El diseño visual de su presentación debe proveer señales claras que alerten y expongan situaciones extraordinarias y permitan identificar las posibles áreas de intervención.

Formatos de presentación gráfica:

  • Presentación en Tablas: Es la forma más simple de presentar la información, aunque tal vez la menos amigable. Cuando se muestran datos tabulados en necesario adoptar algún criterio para presentar la información de manera ordenada. Recomiendan que si la tabla tiene el objetivo de mostrar el indicador compuesto, podría ser conveniente listarlo conforme a un ordenamiento decreciente.
  • Gráficos de barras: En este caso las unidades de análisis suelen ubicarse en el eje vertical y los valores de indicador compuesto en el horizontal. Gracias al uso de colores o grisados, es posible expresar conjuntamente los valores del indicador en varios períodos del tiempo. Este formato es, por lo general, claro y de fácil comprensión.
  • Listado del ordenamiento o ranking: Es forma rápida de expresar los resultados, mediante la representación del desempeño de las unidades de análisis en una lista decreciente de los mismos según los valores obtenidos. Su ilimitación es que no se muestran la diferencias de desempeño de cada una de ellas, que pudieran estar expresadas en el valor absoluto del indicador.
  • Gráficos de líneas: Cuando se dispone de información obtenida en varios momentos del tiempo y la cantidad de unidades de análisis no es demasiado extensa puede ser conveniente representar los resultados en forma de gráficos de líneas. En los casos en que se tengan numerosos registros en el tiempo, es decir, que el indicador compuesto constituya una serie temporal propiamente dicha, puede ser interesante, además de representar punto por punto, analizar la tendencia. Para ello pueden graficarse también las medias móviles del indicador calculadas sobre una cantidad conveniente de períodos.
  • Señales de tráfico: En este caso, para cada valor del indicador compuesto e incluso también para los sub-indicadores que lo componen, es posible expresar los resultados mediante señales de tráfico o “emoticones”
  • Caras de Chernoff: Estás últimas permiten representar datos en múltiples dimensiones. Cada punto (ciudad) se representa por una cara, que se describe mediante sus características faciales interesa expresar los cambios acontecidos.
  • Pictogramas: Expresan con dibujos alusivos al tema de estudio las frecuencias de las modalidades de una variable o su nivel de magnitud.
  • Gráficos de radar o telearaña: En el gráfico se ubican los valores numéricos, aumentando en valor, desde el centro hacia el perímetro donde alcanza su valor máximo admitido.

Intentando ir un poco más allá de la representación gráfica simplificada de los indicadores compuestos resultantes y sus componentes, tal como lo hemos expuesto aquí, vale la pena comentar, aunque sea, con brevedad una nueva tendencia que intenta vincular el uso de estadísticas y datos cuantitativos con el diseño y cuyo fin es facilitarle al usuario la labor de búsqueda, exploración y análisis de la información al vincularlo con una verdadera experiencia. Se ha denominado a este espacio de actividad transdisciplinaria como el diseño de información (information design).

Bajo el título de diseño de información se quiere caracterizar al uso de gráficos, figuras, símbolos y narrativas cuya finalidad última será la de: comunicar ideas, ilustrar información de manera amigable sin que ello implique la pérdida de contenido y expresar relaciones causales por medio de un soporte visual.

El objetivo que se persigue en todo diseño de información es clarificar, concitar la atención y convencer sobre el contenido de un mensaje que se desea transmitir. Por esta razón, el diseño de información busca mediar y acotar las brechas que existen entre las distintas jerarquías de los saberes. (Dürsteler, 2007).

El diseño de información procura gestionar los recursos de información en un contexto de escasez atencional como en el que hoy vivimos a plena luz de la sociedad de conocimiento. Por eso, combinando la gama de posibilidades, junto con textos y frases, tablas, grafos, diagramas de causa-efecto, metáforas visuales (fotos), sparklines, etc., es posible diseñar el contenido de un mensaje complejo en un espacio reducido.

Un excelentes ejemplo de diseño de información es el Trendalyzer (http://graphs.gapminder.org/world) diseñado por la Organización sin fines de lucro Gapminder y luego adquirido por la empresa Google.

Cierto es que siempre será mucho más difícil partir de la nada. Si se tuviera alguna intuición acerca de lo que se busca se facilitaría enormemente la labor. Por eso, antes de iniciar la tarea de bosquejar un diseño puede ser muy útil identificar algún ejemplo interesante que nos dé una pauta acerca de los que se desea realizar.

Presentación del indicador

Finalizado el proceso de construcción del indicador compuesto, será necesario presentarlo en un formato claro y entendible, ya sea de manera gráfica o tabular.

Todas las etapas que se han descrito anteriormente pueden ser realizadas de distintos modos. Cabe destacar que si bien no en todas las etapas se requerirá hacer uso de alguna metodología (si no hay datos faltantes no se requerirá imputación de datos por ejemplo), es importante considerarlas.

Algunas propuestas

Indicadores compuestos existentespara evaluar la sostenibilidad del desarrollo

Indicadores basados exclusivamente en las ciencias naturales

Índice Planeta Vivo – IPV (Living Planet Index – LPI).

Indicadores de desempeño de políticas

Dado que los indicadores de desempeño de políticas son construidos de manera particular para cada política, con lo cual sería complicado mostrar un listado exhaustivo de los mismos, se ha decidido presentar el Índice Metropolitano de la Calidad del Aire de las ciudades de México como un ejemplo representativo.

Índice metropolitano de la calidad del aire de las ciudades de México – IMECA

Indicadores de tipo contable

Entre los principales indicadores basados en contextos contables se han seleccionado al Índice de Ahorro Genuino, al Índice de Bienestar Económico Sustentable, al Índice de Progreso Genuino y a la Huella Ecológica para ser presentados. Los primeros tres están basados en mediciones sobre una valoración monetaria, mientras que el último tienen un esquema de contabilidad que no involucra la monetización de los valores utilizados en su construcción.

Índice de Ahorro Genuino
Indice de bienestar económico sustentable – IBES
Índice de progreso genuino – IPG
Huella Ecológica

Indicadores de tipo sinóptico

De entre las propuestas existentes de indicadores compuestos de tipo sinóptico, se presentan tres de los ejemplos más destacados, todos relacionados con el concepto de evaluación de la sostenibilidad del desarrollo.

Índice de Desarrollo Humano (IDH)
Índice de Desempeño Ambiental
Índice de Sostenibilidad Ambiental

Consideraciones finales

La ciudad del tercer milenio, debe necesariamente ser una ciudad sostenible ya que la realidad medio ambiental no nos da otra alternativa, o es así o vamos a caer en el caos y la pobreza extrema.

Dado que en la actualidad el 80% de la población latinoamericana es urbana y con una tendencia en aumento, el objetivo de “hacer mas ciudad y mas campo”, con participación ciudadana y políticas urbanas claras y explicitas, parece ser el mas adecuado.

Ello quiere decir, no a los nuevos guetos urbanos, que la fragmentan y desintegran, no a las altas densidades insostenibles, no al continuum urbano y no a la privatización del espacio público. Por el si, diríamos, que si a la complejidad, la cohesión social, la eficiencia, funcional y energética y la generación de un espacio publico integrado y estructurante.

Si bien los indicadores compuestos pueden ser útiles herramientas del proceso de toma de decisiones en el ámbito de diseño, implementación y evaluación de políticas públicas, no deben ser vistos como un objetivo en sí mismo, sino como un punto de partida para el debate acerca de una cuestión relevante y, de esta forma, permita atraer el interés y la inquietud de aquellos grupos vinculados al tema analizado.

La disponibilidad de información es limitada y es fundamental capacitar a los funcionarios públicos para que puedan ser capaces de generar e interpretar indicadores compuestos.

En la sociedad del conocimiento, de profundos y veloces cambios, nunca como ahora ha resultado tan complicado alcanzar una imagen de contexto que nos permita obtener conocimiento de los distintos aspectos de la realidad económica, social y ambiental desde una perspectiva sistémica.

Ha sido necesario crear herramientas de información, que nos provean las señales necesarias para comprender cómo se comportan los sistemas socioeconómicos y los ambientales, integradamente y cómo esa evolución puede compararse entre países o regiones.

Aquí el uso de indicadores compuestos, construidos con rigor conceptual y metodológico, puede constituirse en una valiosa herramienta de trabajo.

En Latinoamérica aun, queda mucho por hacer. Debemos trabajar en múltiples niveles y áreas temáticas creando conjuntos de información cada vez más completos, consistentes y comparables. Esto, contribuirá a desarrollar mejores estrategias y planes de acción de mediano y largo plazo, que nos permitan encaminarnos hacia una senda de verdadera sostenibilidad.

Graciela Mariani
Red Nuestras Ciudades

Ver: Los Indicadores Urbanos parte 1 - Los Indicadores Urbanos parte 2



0 comentarios :

Publicar un comentario

-Su comentario aquí-
Gracias por participar.

Related Posts with Thumbnails