Feria. MATELEC 2008.

Esta semana se ha celebrado en Madrid el Salón Internacional del Material Eléctrico y Electrónico, MATELEC 2008. Es una buena noticia, teniendo en cuenta las recientes noticias acerca del SIMO...

Para los que no os hayáis acercado todavía, os quedan hoy y mañana. Recordad que esta feria es bienal, así que no volverá hasta dentro de dos años.

Aquí os dejo el enlace a la página de IFEMA con los horarios, etc:

http://www.ifema.es/ferias/matelec/default.html


Dual Channel: Mejorando el rendimiento de la memoria principal

Ya hemos comentado en otras ocasiones que el cuello de botella en muchos sistemas actuales está en los accesos a memoria. Es decir, tenemos procesadores tremendamente potentes que en muchos casos ven limitado su rendimiento, no por sus propias limitaciones, sino porque la memoria principal no es capaz de proporcionarles instrucciones y datos para trabajar a un ritmo suficiente.

Por este motivo se han explorado distintas soluciones para mejorar el rendimiento de los accesos a memoria. En entradas anteriores hemos mencionado la importancia de tener una jerarquía de memoria que incluya al menos dos niveles de memoria caché integrados junto con el procesador.

Pero siempre hay fallos de estas memorias que deben ser resueltos accediendo a memoria principal. Aunque se ha intentado mejorar el ancho de banda con esta memoria ensanchando su arquitectura o utilizando memorias entrelazadas, la solución que se ha impuesto en los últimos años debido a su relación coste-prestaciones es muy sencilla: utilizar dos canales de memoria completamente independientes el uno del otro y que puedan funcionar en paralelo, lo que se denomina Dual Channel.

Esta técnica duplica el ancho de banda de los accesos a memoria principal. Pero hay que saber utilizarla adecuadamente. Por ejemplo, si pinchamos un único módulo de memoria de 1 GB en nuestro sistema, no podremos utilizar Dual Channel. Para que esta técnica pueda utilizarse, tendremos que pinchar dos módulos de 512 MB cada uno (uno en cada canal) teniendo en cuenta las especificaciones de la placa base, que suele indicar mediante un código de colores los slots de memoria que corresponden a cada canal (amarillo o negro en el ejemplo de la figura).

Lean Manufacturing y MES (I)

Xavier Marfá, Key Account Manager de Wonderware Spain, nos ha cedido este artículo que ha sido publicado en la Revista del Congreso Anual de la AETCM (Asociación Española de Técnicos de Cerveza y Malta).
m
El artículo se centra en la relación existente entre las soluciones MES y las estrategias Lean Manufacturing y como ambas son imperativas de abordar en un entorno empresarial tan cambiante y agresivo como el que transcurre. Dada la amplitud del artículo, haremos varias entradas del mismo.
m
Desde redindustria nuestro agradecimiento a Xavier Marfá por su aportación.
m
Para más información:
m
------------------------------------------------------------------------
m
No es fácil responder a las exigencias que la economía global exige a las empresas industriales en el entorno competitivo actual. ¿Cuánto se puede acortar el tiempo de entrega? ¿Cuánto se pueden reducir las pérdidas de producción? ¿Podemos mejorar los tiempos de cambio de formato? Realmente, ¿qué hay detrás de esas preguntas?
,
Goldratt(1) indica que será “productivo” para la empresa todo aquello que contribuya a conseguir ganar dinero” y se centraba en el estudio de los cuellos de botella e incrementar su capacidad. Podríamos decir que ya no hay espacio para la ineficacia ni el derroche en ningún aspecto de la cadena de valor.
m
Para nadie es un secreto que en este mundo globalizado de inesperados cambios las empresas requieren ser cada vez más ágiles y adaptarse con más rapidez a estos cambios. Esto quiere decir, que quienes saben manejar bien la información poseen el poder para tomar decisiones que las benefician y es aquí, donde las nuevas estrategias de producción juegan un papel determinante porque las empresas pueden tener una ventaja competitiva que les permita ir delante de sus competidores.
m
Algunos obstáculos que han afectado significativamente la productividad de las organizaciones son la acentuada resistencia al cambio por parte de la gente, las deficiencias para reconocer rápidamente las amenazas competitivas, la debilidad estructural de los sistemas de información, la escasez de recursos apropiados y la incertidumbre de cómo o por qué automatizar procesos.
m
Además, las causas que llevan a las empresas a acometer cualquier iniciativa encaminada a optimizar sus procesos productivos varían sustancialmente dependiendo del tipo de industria, producto y organización.

Así, según un reciente estudio sobre la adopción y conocimiento de Lean Manufacturing en las empresas españolas, los retos competitivos externos más importantes para las empresas son la presión sobre los precios, exigencia de mayor calidad del producto y tiempos de reaprovisionamiento cada vez más breves y fiables.
n
Por otro lado, también existen retos internos entre los que destacan la dificultad de la previsión de la demanda, el cumplir con los plazos de entrega, los problemas de planificación y control mediante gestión de la información y la productividad de la mano de obra.
m
Las empresas afrontan estos retos internos y externos con recursos humanos y financieros limitados y en un entorno donde la rentabilidad del negocio no es ya una prioridad sino una necesidad. Para responder a estas dificultades las medidas que toman son, principalmente, programas de mejora de calidad y eficiencia, la inversión en personas y la aplicación de Lean Manufacturing, buscando con todo esto aumentar la fiabilidad y flexibilidad.
m
Casi la totalidad de las medidas adoptadas tienen relación con Lean Manufacturing (programas de mejora de la calidad y de la eficiencia, inversión en personas, Lean Manufacturing) o los Sistemas de Gestión de fábrica en tiempo real (Automatización de procesos, inversión en sistemas de información, integración de cadenas de suministro).
m

Introducción a EAI

En una empresa actual es muy habitual que se utilicen un gran número de aplicaciones individuales y aisladas (desarrollos a medida, aplicaciones comerciales, soluciones mixtas) que se ejecutan en diferentes servidores, tienen diferentes fuentes de datos y utilizan diferentes formatos de información.


En estos entornos sería deseable una capa de integración que permitiera un intercambio de información fiable entre todas estas aplicaciones heterogéneas y la compartición de funciones y procesos entre ellas de una manera completamente interoperable. Esta capa permitiría una utilización óptima de los recursos de la empresa y facilitaría enormemente la labor de sus empleados y clientes.


Enterprise Application Integration (EAI) es una forma de reingeniería del software que permite la integración de diferentes aplicaciones de negocio ya existentes.


Muchos de los proyectos que abordan estos objetivos de integración tan ambiciosos suelen centrarse en un ámbito muy específico de la empresa, posibilitando la integración sólo en un aspecto concreto.
En la mayor parte de estos proyectos se utilizan módulos de EAI externos a las aplicaciones que se desea integrar y poco acoplados con ellas. Tecnologías típicas para este tipo de integración son CORBA y RPC.


Pero la aparición de herramientas de tipo MOM (Message Oriented Middleware) y SBC (Space Based Computing), de tecnologías como los Web Services y de filosofías de diseño como SOA (Services Oriented Architecture) y ESB (Enterprise Service Bus), ha hecho posible que algunos proyectos de integración se aborden de manera mucho más estructurada, descomponiendo los sistemas en diferentes capas o niveles de abstracción y procurando conseguir la integración en alguna de ellas o en todas. Y esto es lo que hoy en día se suele entender por EAI.

Mapa de Proyectos MES

A la hora de seleccionar una solución MES, debemos realizar un análisis de qué beneficios me a va aportar esta solución teniendo en cuenta la idiosincrasia de mi planta.
m
Podemos utilizar métodos cualitativos para analizar estos beneficios. Por ejemplo, realizar un Benchmarking de tu organización, comparándola con otras de tu propio sector. Este tipo de análisis va a facilitar la determinación de las áreas de interés que son susceptibles de mejorar.
m

Por otro lado, la utilización de métodos cuantitativos implica un análisis del proceso de producción teniendo en cuenta que mejoraremos dicho proceso si:

  • Incrementamos el output final. (Produciendo más cantidad o produciendo mejor, de manera que podamos incrementar el precio de venta).
  • Reduciendo costes de producción.
  • Reduciendo inversiones en equipamiento industrial. (Opmitizando el que tenemos en planta).
El primer paso para llevar a cabo este análisis es contar con información detallada de estos conceptos. De esta manera podremos encontrar la oportunidad de mejora.Esta mejora puede llevarse a cabo a nivel corporativo, en una planta o en un área.
n
En este gráfico, podemos observar un ejemplo de mapa de proyectos a abordar, tras realizar el análisis arriba mencionado.

Cuantificación Beneficios MES

La consultora Logica en su MES Product Survey 2008, detalla los siguientes resultados en relación a los beneficios que aportan las soluciones MES a las empresas que acomenten este tipo de iniciativas.
El estudio se ha realizado sobre una muestra de 100 plantas americanas de diferentes sectores y operaciones. El estudio demuestra que la incorporación de Soluciones MES en estas plantas han provocado:
  • Mejora en la productividad industrial.
  • Mejora en los procesos productivos.
  • Mejor rendimiento del personal.


De forma cuantitativa los resultados son:

  • El valor añadido por empleado es un 70% mayor incorporando una solución MES.
  • El valor de las ventas por empleado se duplica.
  • El valor de las ventas incrementa en 6 veces.

Libro. Diseño con FPGAs.

Como algunos me habéis preguntado y os dije que iría dejando enlaces, aquí va el primero.
ddd
ddd
Es una pena porque no tenemos la suerte de tenerlo en versión pdf libre como el que os enlacé para SOA, pero es un libro muy recomendable para aprender acerca de este tema sin entrar en grandes profundidades técnicas o tecnológicas. Recorre los aspectos más importantes de manera divulgativa y se lee relativamente fácil, así que para adquirir algo de cultura general, me parece uno de los mejores que hay hoy en día.
ddd

¿Qué es una FPGA?

Las siglas FPGA significan Field Programmable Gate Array. Como su nombre indica, se trata de un dispositivo compuesto por una serie de bloques lógicos (puertas, registros, memorias, flip/flops, etc) programables, es decir, la interconexión entre estos bloques lógicos y su funcionalidad no viene predefinida sino que se puede programar y reprogramar.

Este tipo de dispositivo está a medio camino entre los circuitos de propósito específico (ASIC) y los procesadores de propósito general en prestaciones, posibilidad de optimización, consumo de potencia, etc. Su principal ventaja frente a los diseños específicos es que son reprogramables, por lo que proporcionan una gran flexibilidad de diseño, que los costes de desarrollo y adquisición son muy económicos, que el tiempo de desarrollo es mucho menor y que existe la posibilidad de realizar reconfiguraciones dinámicas (durante el funcionamiento del dispositivo) del diseño.

¿Cómo se programa una FPGA para que realice las funciones que nosotros deseamos?. En realidad es muy parecido a programar un procesador de propósito general. La tarea del programador es definir la función lógica que realizará cada uno de los bloques lógicos de la FPGA e interconectarlos. Para ello debe utilizar alguno de los entornos de desarrollo especializados en el diseño de sistemas sobre FPGA. Si se trata de un diseño sencillo puede hacerse con un esquemático, si no, habrá que utilizar un lenguaje de programación especial HDL (Hardware Description Language) como VHDL o Verilog.

Además, en los últimos años han aparecido lenguajes para diseñar sistemas en FPGA de un nivel mucho más alto, por lo que un diseñador poco experimentado tendrá mucho más fácil su trabajo. Con lenguajes como SystemC o HandelC, pasar de la implementación software en C de una aplicación a su diseño sobre una FPGA es mucho más rápido y sencillo.

Para los que estéis interesados en el tema, de gran importancia hoy en día en el entorno industrial, ya iré poniendo enlaces en el blog. De momento, mencionaros a los fabricantes más importantes: Xilinx y Altera.

MESA. Modelo de Iniciativas Estratégicas

Relacionado con el concepto de c-MES, MESA ha definido un conjunto de iniciativas estratégicas que basan su desarrollo, implementación y realimentación, en la información proporcionada por los Sistemas MES y el resto de sistemas transaccionales que influyen de forma directa en la gestión integral de los procesos corporativos.

Entre estas iniciativas caben destacar:

  • Lean Manufacturing.
  • Cumplimiento de normativas y procesos de calidad.
  • Gestión de la vida útil de productos.
  • Gestión de la Empresa en tiempo real.
  • Gestión de activos.


Los factores que caracterizan a estas iniciativas son:


  • ROI de las mismas.
  • Metodología de desarrollo e implementación.
  • Dependencias tecnológicas y funcionales.
  • Riesgos.
  • Factores de éxito.
En la siguiente figura, observamos el modelo propuesto por MESA.




MESA define C-MES. Collaborative MES

Durante los años 90, MESA define las funcionalidades básicas de una solución MES y las representa a través de su HoneyComb.

(Ver entrada).


En el año 2004, MESA publica dos White Papers abordando el concepto de Collaborative Manufacturing. Entendiendo este termino como la relación existente entre los sistemas MES y los otros sistemas y agentes que forman parte de la cadena global de suministro.

El C-MES (Collaborative MES) define 8 funciones principales y establece los sistemas con los que una solución MES debería intercambiar información.




Hacking de cámaras web

Esta última semana ha salido en casi todos los medios de comunicación la noticia de que es posible observar desde Internet las imágenes captadas por multitud de webcams ubicadas por todo el mundo en tiendas, colegios, gimnasios y lugares públicos en general. Y no sólo que es posible ver lo que estas cámaras están grabando, sino que también es posible controlar las cámaras.

Nos parece interesante tratar este tema brevemente, porque aunque se sale un poco de nuestra temática habitual, raro es el edificio, planta o empresa que actualmente no esté lleno de cámaras de distinto tipo.

Lo primero que tenemos que decir, es que este tipo de "pirateo" no es nuevo para nada, hace años que se conoce (lo que deja no deja de corroborar lo que ya hemos dicho en algún momento, la cultura que tenemos acerca de seguridad informática deje mucho que desear).

Lo segundo, una breve explicación para que protejáis las cámaras que podáis tener en vuestras empresas, etc. Si habéis conectado vuestra webcam a la red y tiene asignada una dirección IP para poder acceder a ella por Internet, obviamente, no sóis los únicos que podéis hacerlo. Así que es imprescindible que pongáis un nombre de usuario y una contraseña (lo suficientemente complicada para que no se pueda romper por fuerza bruta) para que sólo podáis acceder vosotros.

De lo contrario, cualquier persona que tenga acceso a Google, podrá utilizar las búsquedas avanzadas como intitle o inurl para localizar páginas con los nombres habituales de las páginas web de administración de los modelos de webcam habituales.

Aunque parezca mentira, podéis hacer la prueba, en muchos casos los administradores de este tipo de cámaras no utilizan las medidas más básicas de seguridad poniendo en peligro la intimidad de otras personas. Así que sed cuidadosos con estas cosas!.

Evento. Mesa Redonda IMADE. Eliminación Cuellos de Botella

El próximo miércoles 15 de octubre de 2008, redindustria en colaboración con Wonderware Spain, participará en la Mesa Redonda que IMADE organiza, junto con el Ayuntamiento de Arganda del Rey, ASEARCO y la Cámara de Comercio, en la que se tratarán temas relacionados con la mejora de la productividad industrial, eliminación de cuellos de botella en la fabricación y la importancia de las soluciones MES en la consecución de dichos objetivos.

La asistencia a la mesa redonda es gratuita previa inscripción.

Estas son las coordenadas de localización de la Mesa Redonda:

  • Lugar y fecha de celebración: Miércoles, 15 de octubre de 2008
  • Horario: 10:00 a 12:00 hrs.
  • Centro de Servicios Empresariales de LA POVEDA
  • Avda. de la Azucarera 2
  • Arganda del Rey, Madrid.

Información e inscripciones:

Oficina Innovación Territorial (O.I.T) Sudeste (IMADE)
Ángeles Llanos - Tel: 91 399 76 66
allanos@imade.es
Mayte Ballesteros - Tel: 91 399 76 68
mballeteros@imade.es
Mª José Corrales - Tel: 91 399 76 67

Ayto. Arganda del Rey
Rosa Mochales - Tel: 91 871 13 44

Asociación de Empresarios de Arganda del Rey y Comarca (ASEARCO)
Manuel Pérez Castro - Tel: 91 871 57 13

¿Por que las diferencias entre los videojuegos de hace 10 años y los de ahora?

Uno puede preguntarse esto, incluso sin ser muy aficionado a jugar con el PC, simplemente viendo la publicidad de los últimos videojuegos como World in Conflict o Force Unleashed (el de la Guerra de las Galaxias con el que nos están bombardeando últimamente).

¿Qué ha pasado en estos años para pasar de la pobre calidad en 2D de los típicos juegos de primera persona a las casi películas de animación en tiempo real con efectos de fotorrealismo a las que jugamos hoy en día?.

Los avances revolucionarios que se han producido se deben principalmente a las mejoras introducidas en estos años en cuatro aspectos fundamentales:

  • En la eficiencia en la programación de los juegos (disponibilidad de APIs, entornos de programación e incluso modelos de programación específicos).
  • En el diseño de los procesadores que ejecutan los videojuegos (CPUs).
  • En el diseño de los procesadores que ejecutan la parte gráfica de los videojuegos (GPUs).
  • En la fabricación de los displays en los que visualizamos las imágenes.

De estos cuatro aspectos, el que más ha evolucionado es el de las arquitecturas gráficas. Hace unos años, las técnicas más sofisticadas en gráficos no estaban al alcance de los PCs que todos teníamos en casa, hacían falta máquinas especiales (en aquella época SGI era la firma que reinaba en el mundo de los gráficos) para conseguir cierta calidad si se deseaba que ésta fuera en tiempo real.

Pero con la llegada de las tarjetas gráficas y de las GPUs programables (y el liderazgo de NVidia y de ATI desde ese momento), el hardware consumible al alcance de casi todos permite utilizar las últimas técnicas en gráficos.

Si se utilizaran estos procesadores gráficos en otros campos de aplicación, como el de la Informática Industrial, ¿serían los avances en rendimiento tan espectaculares a corto/medio plazo como lo han sido en el campo de los juegos?.


El problema del equilibrio de carga (y II)

La estructura de un algoritmo de equilibrio de carga cuya finalidad es distribuir el trabajo entre todos los nodos que componen un sistema de memoria distribuida de manera equitativa, se puede dividir en cuatro fases bien diferenciadas:
  1. Medida del estado: En esta primera fase cada nodo evalúa su estado actual, de manera que cuantifica en un índice de carga los recursos que están siendo ocupados en ese momento. Este índice de carga es un valor no negativo cuyo valor es 0 si el nodo está completamente desocupado y que se incrementa al aumentar la carga del nodo y por lo tanto, la ocupación de sus recursos. El índice de carga debe de ser un buen estimador de la carga de los nodos, y para ello suele basarse en parámetros medibles como el número de procesos en ejecución, la memoria ocupada,... Pero además su cálculo debe ser eficiente y sencillo, puesto que se medirá con bastante frecuencia.
  2. Regla de información: Esta segunda fase determina cómo se difunde, recoge y mantiene la información sobre el estado de los nodos, necesaria para las posteriores decisiones relacionadas con el equilibrio de carga.
  3. Regla de iniciación: Esta fase determina cuándo se inicia una operación de equilibrio de carga. Se debe tener en cuenta que el beneficio obtenido con esta operación debe compensar el coste que implica su realización.
  4. Operación de equilibrio: Esta última fase se subdivide en otras tres :
  • Regla de localización: Consiste en localizar a un nodo adecuado para realizar la operación de equilibrio. Esta regla está estrechamente relacionada con la de iniciación y con el beneficio que se puede obtener de la realización de la operación. Los nodos entre los que se puede elegir forman el dominio de equilibrio de carga del nodo, y este dominio puede ser global (si incluye a todos los nodos del sistema) o local (si sólo incluye a unos cuantos).
  • Regla de distribución: Determina cómo se comparte la carga entre los nodos implicados en la operación de equilibrio.
  • Regla de selección: Es la encargada de seleccionar la carga que se comparte con del nodo escogido. Es decir, el paquete de trabajos que se va a redistribuir con la operación de equilibrio.adfas

Diferencias entre Siemens Simatic IT y Wonderware ArchestrA (I)

Teniendo en cuenta mi posición de Area Manager de Wonderware Spain, se puede pensar en el carácter sesgado de las entradas en las que voy a exponer las diferencias existentes entre la Tecnología ArchestrA desarrollada por Wonderware y la solución Simatic IT que Siemens comercializa. Sin embargo, tras haber tenido la oportunidad de trabajar durante un año con la solución propuesta por dicho fabricante de Hardware, creo que tengo criterio para identificar los puntos fuertes y débiles de las dos Soluciones. En cualquier caso, si fuera el responsable de llevar a cabo un proyecto MES, mi elección sería Wonderware.
Fue en Génova donde recibí formación técnica de Simatic IT. Las impresiones que saque tras esta formación fueron las siguientes:

  • Se trata de una tecnología dificil de ubicar. Asume funcionalidades típicas del ERP o del MRP y es muy dispersa en las funcionalidades típicas que debe asumir una solución MES.
  • Es una tecnología "poco transparente". Existen multitud de módulos inconexos entre si y convivencia de diferentes tecnologías.
  • Aunque Siemens hablas de sus Librerias, no proporciona funcionalidades o informes "Out of the Box" que permitan al usuario final tener una visión clara de hasta donde puede llegar.

En las próximas entradas profundizaremos en estos mensaje y analizaremos los puntos débiles de Simatic IT. En cualquier caso, me gustaría remarcar algunos de los puntos fuertes que desde mi punto de vista, Simatic IT ofrece:

  • El desarrollo de sus soluciones basados en la normativa S95.
  • Un entorno gráfico que permite llevar a cabo Diagramas de Proceso en el que se detallan los equipos y operaciones de proceso vinculadas a cada equipo. (Bien es cierto, que el correcto diseño de estos diagramas, se hace tarea ardua y dificil por ser un entorno poco intuitivo).
  • Programación orientada a objetos. (Pero vinculados a sus autómatas PCs7).
  • Excelente mensaje de marketing.
  • Modularidad y escalabilidad.
  • Entorno muy flexible para adaptarse a las necesidades del cliente.

El Top500

El proyecto Top500 se encarga de confeccionar una lista con los 500 computadores más potentes del mundo. Esta lista está recopilada por varios profesores e investigadores norteamericanos y alemanes, y está disponible desde el año 1993.

Se publica una nueva lista actualizada cada seis meses y para medir la potencia de cómputo de los sistemas evaluados se utiliza el benchmark HPL, una versión portable del clásico LinPack que se puede ejecutar en sistemas de memoria distribuida.

Hay que destacar que la ordenación de los computadores dentro de esta lista está hecha en función de los resultados que han obtenido en la ejecución de este único benchmark, por lo que no se pueden extraer del Top500 conclusiones absolutas. Además, no se incluyen sistemas basados en computación GRID ni computadores de propósito específico. Pero sí que sirve para dar una idea general del estado del arte en el campo de la supercomputación.

Para los curiosos, hay tres sistemas españoles que aparecen en la lista: el Marenostrum de la Universidad Politécnica de Cataluña, el Magerit de la Universidad Politécnica de Madrid y el Finis Terrae del CESGA.

Y este es el enlace para que podáis ver la lista por vosotros mismos:

www.top500.org

Balanced Scorecard (BSC) (y IV)

A la hora de implementar un BSC, en la mayoría de las empresas nos encontramos con la siguiente situación preexistente.
m
El profesional perteneciente a una empresa desconoce normalmente los objetivos estratégicos de la compañía; no sabe el papel que juega la correcta realización de su desempeño en la consecución de dichos objetivos. Además es difícil compaginar los objetivos personales de cada individuo con los objetivos corporativos.
m
Entre las fortalezas del BSC destacamos que esta metodología de gestión, se centra en dar respuesta a las preguntas que la alta dirección de una compañía (encargada de definir y comunicar correctamente la estrategia de esta) realiza acerca del posicionamiento estratégico y marcha general de la empresa. El BSC une métricas de rendimiento a la misión y estrategia definidas.
m
Otro punto importante es que cada perspectiva tiene sus objetivos estratégicos, sus objetivos operativos o tácticos, los planes de actuación que permiten alcanzar dichos objetivos y los indicadores o métricas que indican el estado de consecución de dichos objetivos. Es importante acotar el número de indicadores, ya que un uso excesivo de estos, puede desinformar más que informar del estado de una perspectiva.
m
Por último, el BSC ayuda a comunicar a los profesionales de una compañía el valor del trabajo diario que realizan. La correcta ejecución de este trabajo es fundamental para alcanzar los objetivos estratégicos de la empresa y el BSC ayuda a medir el impacto e importancia que tienen estas tareas en dicha consecución.

El problema del equilibrio de carga (I)

El problema del equilibrio de carga de trabajo entre los nodos que componen una arquitectura de memoria distribuida (ya hemos hablado de este tipo de sistemas, clusters y Grids en varias entradas pasadas) es uno de los que más impacto tiene en el rendimiento del sistema. Una distribucón inadecuada de las tareas entre los distintos nodos del sistema puede producir una situación de desequilibrio en la que algunos nodos estén muy cargados mientras que otros estén muy poco cargados o incluso desocupados. Y este mal reparto de la carga puede influir muy negativamente en el tiempo de respuesta de las aplicaciones en el sistema.

Los algoritmos de equilibrio de carga tienen como objetivo repartir las tareas que se ejecutan en el sistema de manera que cada nodo ejecute una carga proporcional a su capacidad de cómputo y se optimice la utilización de los recursos.

Hay que diferenciar estos algoritmos de los de compartición de carga, cuyo objetivo es un poco más simple puesto que sólo aseguran que en ningún momento va a haber tareas esperando para ejecutarse en un nodo mientras que otro está inactivo. Y también hay que diferenciarlos de los algoritmos de planificación, que no sólo deciden en qué nodo debe ejecutarse una tarea sino también en qué momento.

Los algoritmos de equilibrio de carga pueden clasificarse en primera instancia en dos grandes categorías, algoritmos estáticos y dinámicos.Los algoritmos estáticos asignan los procesos a los nodos del sistema en tiempo de compilación mientras que los algoritmos dinámicos realizan esa asignación en tiempo de ejecución.

La principal ventaja de los algoritmos estáticos es que no consumen recursos del sistema durante la ejecución de las aplicaciones y por lo tanto no suponen ninguna penalización en su rendimiento. Pero se basan en información a priori sobre los procesos que se van a ejecutar y sobre el estado del sistema. Por lo tanto no son adecuados para sistemas muy dinámicos como los basados en clusters de computadores o en tecnología Grid.

En estos casos es imprescindible la utilización de algoritmos dinámicos, ya que en la mayor parte de los casos no se podrá prever la carga de trabajo que va haber en el sistema ni cómo va a variar a lo largo del tiempo. Los algoritmos dinámicos son capaces de adaptarse a estas variaciones distribuyendo la carga en función del estado del sistema en cada momento. Aunque hay que tener en cuenta que estos algoritmos consumen recursos del sistema en tiempo de ejecución y por lo tanto, siempre hay que valorar la penalización que esta sobrecarga introduce en el rendimiento del sistema.

Balanced Scorecard (BSC) (III)

La perspectiva de cliente.
Esta perspectiva es clave para las empresas. En un mercado libre,si la empresa no satisface las necesidades de los clientes, estos buscarán satisfacerlas contactando con otros proveedores. Si esta perspectiva refleja indicadores pobres, puede ser precedente de una situación inestable para la empresa aunque esté financieramente saneada.

Algunas de las medidas utilizadas en esta perspectiva son:
  • Tipos de clientes que una empresa tiene.
  • Tipos de procesos que realiza una empresa para hacer llegar de forma satisfactoria los productos y servicios que provee a los distintos tipos de clientes.
  • Cuota de mercado, satisfacción del cliente, porcentaje de repetición del cliente, penetración en segmentos claves del mercado, tiempo en alcanzar satisfacción plena por clientes.

La perspectiva financiera.
Norton y Kaplan exponen la necesidad de contar con datos financieros tradicionales para tener un análisis integral de la situación de una empresa. La aportación de los autores a esta tradicional perspectiva, es que a los datos comunes tratados en el ámbito financiero deben añadirles otros análisis como son el de riesgos financieros y análisis coste-beneficio.


Algunas de las medidas utilizadas en esta perspectiva son: ingresos operativos, beneficios de explotación, ingresos por introducción de nuevos productos, margen bruto, reducción de costes en áreas claves, fondo de maniobra, retorno de inversiones (ROI).