En mi post anterior Cómo mejorar la eficiencia en un gobierno (I) presentaba un modelo que permitía analizar el tiempo de espera en un servicio con una ventanilla única, como un banco o un supermercado. Si bien este modelo ayuda a comprender el funcionamiento de las colas de una manera intuitiva, no permite comprender el funcionamiento de una oficina de gobierno. Asumiré que ya has leído mi post anterior.
En esta segunda entrega, haré un poco más complicado el modelo.
Complicando el modelo
Cuando tenemos una oficina de gobierno, y queremos ver cómo funciona, tenemos múltiples estaciones y múltiples colas, donde las estaciones funcionan en secuencia y/o en paralelo, cada una efectuando un tipo de labor determinada.
Cuando en una estación la el tiempo entre llegadas de clientes es menor que el tiempo de atención, la cola se empieza a llenar. Cuando es mayor, la cola se empieza a vaciar. Sabemos que las estaciones no son máquinas y por ende el tiempo de atención no es constante, sino que tiene variaciones que requerirían de un estudio estadístico, para identificar la distribución probabilística. El tiempo entre llegadas de clientes tampoco es constante, sino que tiene algo de probabiidad también.
Las llegadas a los puntos de entrada del sistema tendrían que ser estudiados, y las llegadas a procesos subsiguientes realmente se studiarían tomando como llegada al cliente que sale del proceso anterior. Para cualquiera que haya estudiado tiempos de proceso en una fábrica o una sucursal de banco, la cosa parece muy simple, se trata sólo de recoger datos y analizarlos para modelar un servicio. Simple, ¿no es cierto?
Ahora bien, esto presenta un problema. Si bien no tenemos problemas para modelar el servicio, porque realmente construimos el modelo con cierta facilidad, la recolección de datos sí que es un problema. Al modelar un proceso se ocupa un intervalo de confianza no mayor al 5% del valor estimado, o dicho de otra forma, pretendemos estimar cantidades con un error no mayor al 5%. Esto generalmente hace que debas recolectar datos de al menos 1000 eventos (1000 datos) para la muestra (una regla empírica), y debes además seguir los procedimientos estadísticos con rigor, sin tomar atajos ni inventar datos, si quieres hacer una estimación fiable. Y si creías que eso ya era complicado y costoso, todavía falta hablar de otros problemas.
Resulta que a diferencia de los materiales que ingresan a un proceso en una fábrica, que generalmente son todos iguales, las clases de clientes son diferentes, porque tienen distintas necesidades, y en función de esas necesidades, seguirán una ruta distinta dentro del sistema. Y si esto no fuese suficiente, a lo largo del proceso los clientes podrían pasarse de una clase a otra, de modo que la cantidad de clientes por cada clase no es la misma, lo que hace que las colas cambien de tamaño.
Si en lugar de usar mecanismos automatizados para medir, mides el trabajo manual de las personas, el sólo hecho de que una persona se sienta que es evaluada, hace que su conducta cambie, lo cual sesga tus datos. Y aunque sea manual, las cosas ocurren tan de prisa que las cosas se vuelven bastante difíciles de manejar.
Así es como de los números simples que obtuvimos con el ejemplo del banco y del supermercado, ahora tenemos números cambiantes, de modo que cada día las cargas del sistema son distintas en los distintos puntos. El problema no es tanto la recopilación de datos o los métodos de recolección y análisis, sino el costo. En los servicios, empezar a medir lo que pasa en el sistema termina siendo bastante complejo al punto de que en sistemas que manejen las cosas de forma manual, recolectar datos puede tornarse inmanejable para el estudioso neófito. Cuando vayas a una institución de gobierno como auditor ciudadano, probablemente te vayas a enredar en los mecates al tratar de estudiar cómo funcionan las cosas. Encima de todo, no sabes qué es lo que quieres obtener para medir el desempeño del sistema.
¿Existe alguna forma mejor de hacer las cosas sin enredarse demasiado, pero sin desviarse demasiado de la realidad?
De lo simple a lo complejo
España sí cuenta con personas en el ámbito académico que saben sobre el tema. Expertos, como el veterano Dr. Ramon Puigjaner de la Universitat de les Illes Balears, ya cuentan con amplia experiencia en la medición y modelado de distintas clases de sistemas.
Lo que pasa es que los sistemas que mide el Dr. Puigjaner no se trata de gobiernos, sino sistemas informáticos, telefonía, y otros sistemas tecnológicos. ¿Qué puede haber más complicado que el Internet? En el Internet tienes montones de aparatos conectados, cada uno con sus procesos y sus colas, y los clientes son datos o mensajes que circulan a través del sistema. Si te fijas, podríamos pensar en Internet como una colección de oficinas de gobierno que se hacen cargo de distintas cosas, y cada cosa que haces, desde enviar un email hasta descargar archivos es un trámite administrativo en un gobierno virtual. Las técnicas aplicables en el manejo de tráfico en internet, podrían ser de gran utilidad para estudiar sistemas administrativos. ¿Qué nos dice esto? Que si quieres estudiar el diseño de un gobierno, podrías comenzar por tomar un curso de redes de computadoras.
En un seminario del Dr. Puigjaner, señalaba que cuando uno va a analizar un sistema, uno debe empezar con un modelo simple, que brinde una primera aproximación al problema. Este primer modelo rudimentario te permite tener una idea genérica de por dónde debe andar el orden de los números. El modelo simple puede brindar o números muy optimistas, o números muy pesimistas, dependiendo del contexto, lo cual te da límites mínimos o máximos esperables en las magnitudes del sistema.
Si es posible, comparas el resultado obtenido con el sistema real, para ver si tu modelado fue bueno. Lo que pasa es que no siempre vas a tener un sistema real para comparar datos. De este modo, al no haber una realidad existente o en la cual tengas acceso para obtener datos o para experimentar, entonces sólo podemos confiar en que quien modela haya hecho un buen trabajo.
Poco a poco se va refinando el modelo en una parte y luego en otra. Y al refinarse el modelo, se pasa de ese escenario optimista o pesimista hacia el punto medio, que es donde queríamos estar. Hay algunas ocasiones en que el modelo refinado no aporta gran diferencia en los valores respecto del modelo simple, en cuyo caso no vale la pena gastar mucho dinero en refinar el modelo.
La diferencia entre el enfoque del neófito y el del Dr. Puigjaner con siste en que en vez de "complicar el modelo" desde el inicio e irse a los detalles, es preciso ver el bosque primero antes de ver el árbol, y construir un modelo simple y refinarlo en etapas sucesivas.
Los paradigmas del modelo
Un modelo es una simplificación de la realidad, y nunca debemos dejar de tener eso en cuenta. El modelo debe describir la realidad, y no al revés. Allí es donde la capacidad de modelar y la experiencia entran en juego.
En áreas tales como las finanzas y economía, se modeló la economía como si se tratara de números financieros que causan números financieros, donde el efecto de la acción humana es despreciable. Hacer eso es ignorar que la economía es una ciencia social, y que los números son el resultado de acciones humanas. ¿Por qué crees que ninguno de esos numerólogos de las finanzas pudo predecir la crisis? Es que los paradigmas del diseño estaban errados, trataban de pensar que en la complejidad matemática, la realidad debía ajustarse al modelo, y no al revés. Este punto fue tocado por George Soros en un artículo suyo:
Economic theory has modeled itself on theoretical physics. It has sought to establish timelessly valid laws that govern economic behavior and can be used reversibly both to explain and to predict events. But instead of finding laws capable of being falsified through testing, economics has increasingly turned itself into an axiomatic discipline consisting of assumptions and mathematical deductions – similar to Euclidean geometry. (...) The failure of these theories brings the entire edifice of economic theory into question. Can economic phenomena be predicted by universally valid laws? I contend that they can’t be, because the phenomena studied have a fundamentally different structure from natural phenomena. The difference lies in the role of thinking. Economic phenomena have thinking participants, natural phenomena don’t. The thinking of the participants introduces an element of uncertainty that is absent in natural phenomena. The uncertainty arises because the participants’ thinking does not accurately represent reality.
Fuente: Anatomy of a Crisis
Evidentemente los que hicieron esos modelos se enfocaron tanto en la complejidad que se les olvidó pensar si el modelo se parecía a la realidad, lo cual resultó en un completo fiasco.
Atascamientos y congestiones
Cuando hacemos el modelo simplificado, una de las primeras cosas que tendríamos que ver son las zonas de atascamiento. En mi post anterior habíamos visto que lo que a la gente le desagrada de los trámites de gobierno es la espera.
Si vemos las colas que avanzan en una oficina pública, podemos hacer una analogía con una autopista donde cada cliente avanza en un carril detrminado. Cuando en el proceso de operaciones sucesivas de diferentes procesos o estaciones existe un punto de congestión, todas las filas se atrasan.
Las estaciones con mayor utilización son las candidatas perfectas que pueden convertirse en punto de atascamiento. Pero además de la utilización, ¿qué otros indicadores ocuparíamos?
Indicadores del sistema
Al estudiar un sistema puede hacerse la medición de la capacidad del sistema o puede estudiarse su fiabilidad. Si vamos tras la capacidad del sistema, de acuerdo con el Dr. Puigjaner, para cada proceso deberíamos obtener los siguientes indicadores para cada proceso y para el sistema en general:
- Tiempo de servicio
- Clientes en cola + clientes que están siendo atendidos
- Utilización de cada estación
- Tiempo de respuesta (tiempo desde que un cliente entra hasta que sale)
- Clientes atendidos en un periodo de tiempo determinado
- Productividad: Clientes que atendidos por unidad de tiempo
Cuando estudiamos la fiabilidad de un sistema, según el Dr. Puigjaner, tendríamos necesariamente que contar con cierta redundancia para procesos críticos, así como mecanismos para detectar fallas y para resolver/corregir problemas en el sistema. La evaluación de fiabilidad es distinta de la evaluación de capacidad.
Con esta información es posible tomar decisiones y tener una idea del desempeño del sistema. Para esto existen técnicas numéricas, analíticas y la simulación. Sin embargo el Dr. Puigjaner insistía en que más importante que el modelo, son los datos, porque de nada sirve un muy buen modelo, si los datos que se tiene no sirven.
La labor de auditor ciudadano
Si has de empezar tu labor de auditor ciudadano, y vas a medir el desempeño de un servicio siendo un usuario, ya puedes tener una mejor idea de cómo dedir el sistema. Es muy importante que al ver al gobierno, seas objetivo y no vayas con los paradigmas equivocados. El hecho de que tengas que sperar mucho no quiere decir necesariamente que los funcionarios son vagos.
Si la utilización de una estación es muy baja, tendrías que ver si es que no hay clientes porque un proceso anterior es un punto de atascamiento, o si se trata de que el funcionario es muy rápido haciendo el trabajo, o si se sobredimensionó la capacidad de la estación. No vaya a ser que cometas el mismo error de los financieros de tener los paradigmas equivocados, con juicios a priori. Si tu análisis ha de ser objetivo, también debe ser justo.
Continúa en mi post Cómo mejorar la eficiencia en un gobierno (III)...