Català | Castellano | English | Français | Deutsch | Italiano | Galego | Esperanto
En aquest lloc «web» trobareu propostes per fer front a problemes econòmics que esdevenen en tots els estats del món: manca d'informació sobre el mercat, suborns, corrupció, misèria, carències pressupostàries, abús de poder, etc.
Portada | ¿Quiénes somos? | Enlaces | Agenda | Actividades realizadas | Lista de correo | Contactos-e-mail | Blog

Nuevo apartado:

Al servicio de este pueblo.
Lluís Maria Xirinacs.
Artículos publicados en el diario Avui, cuando Lluís Maria Xirinacs era senador independiente en las cortes constituyentrs españolas, entre los años 1977 y 1979, traducidos al castellano.

Publicaciones:

Pequeña historia de la moneda.
Agustí Chalaux de Subirà, Brauli Tamarit Tamarit.

El capitalismo comunitario.
Agustí Chalaux de Subirà.

Un instrumento para construir la paz.
Agustí Chalaux de Subirà.

Leyendas semíticas sobre la banca.
Agustí Chalaux de Subirà.

Ensayo sobre Moneda, Mercado y Sociedad.
Magdalena Grau Figueras,
Agustí Chalaux de Subirà.

El poder del dinero.
Martí Olivella.

Introducción al Sistema General.
Magdalena Grau,
Agustí Chalaux.

El superordenador Beowulf.

Agrupación de ordenadores personales. Dibujo.Crear un centro de cálculo y procesamiento de datos con agrupaciones de ordenadores de segunda mano, además de los proyectos expuestos en el artículo siguiente, puede permitir, con los modelos disponibles en la actualidad, iniciativas que podrían gestionar, por ejemplo, unas cada vez más extensas redes monetarias nominativas locales o regionales, ya sean a nivel de municipios, comarcas o incluso de comunidades geopolíticas soberanas.

Con el recurso de un edificio con un espacio lo suficientemente grande, el sistema podría ser aplicado con una economía en su inversión compatible con unos tiempos como los actuales, caracterizados por la austeridad en los recursos. Aún así, puede ofrecer una capacidad de procesamiento suficiente para no colapsar el sistema, soportando un número cada vez más elevado de transacciones y de agentes de mercado.

Este artículo ya fue dado a conocer dentro del sitio web del Centro de Estudios Joan Bardina en 2001. A pesar del tiempo transcurrido y la obsolescencia de los recursos empleados en aquel tiempo por sus autores, recuperar este documento del olvido puede permitir, a quienes lo leemos, que podamos aplicar la idea de que ofrece, debidamente actualizada, en nuevos proyectos que se quieran poner en marcha.

Equipo del Centro de Estudios Joan Bardina.
Jueves, 13 de abril del 2017.


El superordenador Beowulf.

Investigación y ciencia. Octubre de 2001.
William W. Hargrove, Forrest M. Hoffman y Thomas Sterling.

Se ha encontrado un procedimiento económico para resolver problemas computacionales de extrema dificultad: la interconexión de ordenadores personales para que trabajen coordinados.

En el famoso cuento de la sopa de piedras, un soldado perdido se detiene en un villorrio, donde alardea de su capacidad para hacer una sopa con sólo agua y un canto pulido. Los habitantes del pueblo, inicialmente escépticos, acaban, compasivos, trayendo pequeñas aportaciones: el corazón de un repollo, un manojo de zanahorias, un trozo de carne, etcétera. Al final, el caldero contiene sopa suficiente para saciar a todos. La moraleja a extraer es inmediata: con la cooperación se alcanzan resultados notables, aun cuando se parta de contribuciones pequeñas, a simple vista insignificantes.

Los investigadores recurren a una estrategia similar de cooperación para construir superordenadores, las potentes máquinas que realizan miles de millones de cálculos por segundo. En su mayoría hacen uso del procesamiento en paralelo; constan de numerosos microprocesadores de alta velocidad que trabajan en tándem para resolver problemas de la complejidad de la previsión del tiempo o la simulación de explosiones nucleares. Fabricados por IBM, Cray y otras empresas, cuestan decenas de miles de dólares, un precio prohibitivo para los grupos de investigación con modesto presupuesto. No les ha quedado otro remedio a las universidades y laboratorios estatales que aprender a construir sus propios superordenadores. ¿Cómo? Mediante la interconexión de ordenadores personales y la elaboración de programas que permiten que estos computadores de mesa resuelvan problemas enrevesados.

En 1996 dos de los autores (Hargrove y Hoffman) nos hallábamos en un apuro así. Trabajábamos en el Laboratorio Nacional de Oak Ridge (ORNL) en Tennessee. Nos proponíamos levantar un mapa nacional de ecosistemas regionales, definidos por condiciones ambientales: todas las zonas con el mismo clima, estructura geológica y características del suelo se engloban en la misma ecorregión. Para levantar un mapa de alta resolución de los estados contiguos de la Unión, dividimos el país en 7,8 millones de celdas cuadradas, cada una con una superficie de un kilómetro cuadrado. Para cada celdilla había que tomar en cuenta 25 variables, que iban desde la precipitación mensual media hasta la concentración de nitrógeno en el suelo. Una tarea imposible de realizar por un solo ordenador personal o estación de trabajo. Se requería un superordenador de procesado en paralelo, que, además, estuviera a nuestro alcance.

Optamos por formar una agrupación o batería de ordenadores anticuados, de los que el ORNL se hubiera desprendido en cualquier caso. Lo apodamos «superordenador de piedra», pues lo construimos sin apenas gastar un centavo. Ello no obstaba para que nuestra agrupación de ordenadores personales (en adelante PC) encerrara potencia suficiente para cartografiar las ecorregiones con una precisión sin precedentes. Otros grupos de investigadores han generado luego agrupaciones más potentes que rivalizan con el comportamiento de los mejores superordenadores a sólo una fracción del coste de éstos. Tan ventajosa relación prestaciones-precio ha llamado la atención de algunas compañías, que piensan ya servirse de agrupaciones para tareas de cierto nivel de complejidad, por ejemplo la decodificación del genoma humano. No nos cabe la menor duda de que la implantación de agrupaciones de ordenadores provocará una revolución en el campo de los ordenadores, al proporcionar un enorme poder de procesamiento a cualquier equipo de investigación, universidad o negocio que lo desee.

Beowulf y Grendel.

La idea de la interconexión de ordenadores no constituía, en sí misma, ninguna novedad. En los años cincuenta y sesenta, el ejército norteamericano del aire tendió la SAGE, una red de ordenadores de válvulas de vacío para protegerse de un inesperado ataque nuclear soviético. A mediados de los ochenta, Digital Equipment Corporation acuñó el término «cluster» (agrupación) al integrar sus minicomputadoras de gama media VAX para formar un sistema mayor. Las redes de estaciones de trabajo -por lo general menos potentes que las minicomputadoras, aunque más rápidas que los PC- se convirtieron en algo común en los centros de investigación. A principios de los noventa, los científicos empezaron a plantearse la creación de agrupaciones de PC, inducidos en parte por el bajo coste asociado a la producción en masa de sus microprocesadores. Pero lo que reforzó el atractivo de esa idea fue la caída del precio de Ethernet, la técnica dominante en la interconexión de ordenadores en redes de área local.

Los avances en la programación facilitaron también el advenimiento de las agrupaciones de varios PC. En los años ochenta, Unix se erigió en el sistema operativo dominante para la computación científica y técnica. Por desgracia, los sistemas operativos instalados en los PC carecían de la potencia y de la flexibilidad de Unix. Pero en 1991 un universitario finlandés, Linus Torvalds, creó el Linux, un sistema operativo similar a Unix y que funcionaba en los PC. Torvalds permitió que su sistema operativo fuera accesible de manera gratuita en Internet; en muy poco tiempo, cientos de programadores comenzaron a aportar mejoras. El sistema operativo Linux, que goza hoy de gran difusión entre los ordenadores independientes, resulta muy adecuado para agrupaciones de PC.

La primera agrupación de PC nació en 1994 en el Centro Goddard de Vuelos Espaciales. La NASA, a la que pertenece dicha entidad, andaba buscando una solución para los complicados problemas computacionales asociados a las ciencias de la Tierra y del espacio. Necesitaba una máquina capaz de alcanzar un gigaflop, es decir, realizar mil millones de operaciones de coma flotante por segundo. (Una operación de coma flotante es equivalente a un cálculo simple como la suma o la multiplicación.) En aquel entonces, un superordenador comercial capaz de alcanzar esta velocidad venía a costar un millón de dólares, y dedicarlo a un solo grupo de investigadores resultaba derrochador.

El tercero de los autores (Sterling) decidió adentrarse en el sistema de agrupaciones de PC, un planteamiento reputado radical en aquel entonces. Con Donald J. Becker, compañero suyo en el Goddard, Sterling conectó 16 PC, cada uno de los cuales contenía un microprocesador Intel 486; emplearon el sistema Linux y una red Ethernet estándar. Para aplicaciones científicas, esta agrupación de PC alcanzaba los 70 megaflop, o sea, 70 millones de operaciones de coma flotante por segundo. Aunque nos parezca poco de acuerdo con los estándares actuales, esa velocidad no era mucho menor que la de algunos superordenadores comerciales de aquel momento. La agrupación se construyó, además, con 40.000 dólares, la décima parte del precio de una máquina comercial con características similares en 1994.

Los investigadores de la NASA lo denominaron «Beowulf», en referencia al joven héroe de la leyenda altomedieval que derrotó al gigante Grendel arrancándole uno de sus brazos. Con ese nombre se designa ahora toda agrupación económica e integrada por PC comerciales. En 1996 aparecieron dos descendientes de la primera agrupación Beowulf: Hyglac (construido por investigadores del Instituto de Tecnología de California y del Laboratorio de Propulsión a Chorro) y Loki (montado en el Laboratorio Nacional de Los Álamos). Cada agrupación constaba de 16 microprocesadores Intel Pentium Pro. Con un coste inferior a 50.000 dólares, alcanzaron un rendimiento sostenido de más de un gigaflop; cubrióse así el objetivo de la NASA.

El sistema Beowulf se nos ofrecía como la solución perfecta para el problema que nos ocupaba, el mapa ecológico regional de los Estados Unidos. Con una sola estación de trabajo apenas podríamos manejar los datos de unos pocos estados; además, no cabía el recurso de asignar diferentes regiones a estaciones de trabajo distintas, toda vez que debían compararse y procesarse simultáneamente los datos ambientales de cada sección del país. En otras palabras, necesitábamos un sistema de procesamiento en paralelo. En 1996 formalizamos una solicitud de 64 nuevos PC con microprocesadores Intel Pentium II para construir un superordenador Beowulf. Pero al tribunal evaluador de nuestra propuesta en el ORNL le pareció implausible y la rechazó.

No nos rendimos. Presentamos un proyecto alternativo. Sabíamos que los PC arrinconados que el Departamento de Energía tenía en Oak Ridge se sustituían con modelos modernos. En una página web interna se anunciaban los PC antiguos y se subastaban como material sobrante. Tras un rápido escarceo descubrimos la existencia de centenares de ordenadores anticuados, esperando la salida mencionada. Quizá podríamos construir así nuestra agrupación Beowulf con máquinas que, concedidas sin coste alguno, reciclaríamos. Habilitamos una sala del ORNL donde antaño había instalado un ordenador, y nos dedicamos a recoger los PC sobrantes para montar nuestro «superordenador de piedra».

La tienda de la ganga digital.

La computación en paralelo se guía por el principio del «divide y vencerás». Un sistema de procesado en paralelo secciona un problema complejo en múltiples tareas de componentes menores. Estas tareas se asignan a los diferentes nodos del sistema -por ejemplo, los PC que componen una agrupación Beowulf-, que realizan su cometido de manera simultánea. De la naturaleza del problema dependerá el rendimiento del procesamiento en paralelo. Un factor a tener en cuenta es con qué frecuencia deben los nodos comunicarse entre sí para coordinar su trabajo y compartir resultados parciales. Hay problemas que requieren dividirse en un número ingente de tareas minúsculas; puesto que tales problemas desmenuzados necesitan un intercambio frecuente de información, no son adecuados para procesado paralelo. Pero los problemas menos sutiles sí pueden repartirse en porciones mayores. Además, al no demandar tanta interconexión entre nodos, admiten presta solución con sistemas de procesamiento en paralelo.

A la hora de formar una agrupación Beowulf se han de decidir varios aspectos de diseño del sistema. Para conectar los PC podemos emplear redes Ethernet estándar u optar por soluciones especializadas, Myrinet por ejemplo. Por motivos presupuestarios escogimos la solución Ethernet, que es gratuita. Seleccionamos un PC que valiera de punto de acceso del agrupamiento; instalamos en él dos tarjetas Ethernet, una para la comunicación con usuarios externos y la otra para la comunicación con el resto de los nodos, que quedarían conectados en su propia red privada. A través del intercambio de mensajes entre los distintos PC se coordinan las tareas, Las dos bibliotecas más utilizadas para el intercambio de paquetes son la interfaz de mensajería (MPI, de «message-passing interface») y la máquina virtual paralela (PVM, de «parallel virtual machine»), ambas disponibles de manera gratuita en Internet. En nuestro superordenador de piedra operan ambos sistemas.

Muchas agrupaciones Beowulf son homogéneas: todos los PC tienen los mismos componentes y microprocesadores. Esta uniformidad simplifica la gestión y el manejo de la agrupación, pero no se trata de un requisito imprescindible. Nuestro superordenador de piedra contaría con una mezcolanza de tipos y velocidades de procesador, pues queríamos aprovechar cualquier equipo que se nos concediera. Empezamos con modelos PC que contenían procesadores Intel 486, aunque luego sólo se incorporaron equipos basados en Pentium con al menos 32 megabytes de RAM y 200 megabytes de capacidad de almacenamiento en disco duro.

De entrada, no abundaban los ejemplares que estuvieran a la altura de nuestros objetivos. Hubo que combinar los mejores componentes de diferentes PC y convertir a éstos en nodos de nuestro sistema. Cada vez que abríamos una máquina sentíamos la curiosidad del que desenvuelve un regalo de cumpleaños. ¿Tendría un buen disco duro, gran cantidad de memoria o una placa madre ampliada (el mejor de los casos), y se nos había donado por equivocación?. En numerosas ocasiones sólo encontrábamos un trasto exhausto con el ventilador cubierto de polvo.

Una vez desatornillado el espécimen, anotábamos sus componentes en una etiqueta para facilitar luego la extracción de las piezas de interés. Establecimos una selección de marcas, modelos y cubiertas preferidas y nos convertimos en expertos descerrajeros de las claves configuradas por sus antiguos dueños. En promedio había que desventrar cinco PC para construir un buen nodo.

A medida que cada nuevo nodo se incorporaba a la agrupación, le cargábamos el sistema operativo Linux. Dimos pronto con la forma de montar el ordenador sin necesidad de incorporarle monitor y teclado. Construimos un ingenio capaz de determinar el problema de un nodo deficiente. Nuestro superordenador de piedra ejecutó su primer código en 1997. En mayo de 2001 constaba ya de 133 nodos: 75 PC con microprocesadores Intel, 53 máquinas más rápidas, basadas en Intel-Pentium, y cinco estaciones de trabajo Alpha de Compaq, más céleres aún que las anteriores.

No entraña especial dificultad el ir actualizando nuestro superordenador. Se empieza por reemplazar los nodos más lentos. Dentro de las tareas de gestión de la agrupación, cada nodo se somete a una prueba sencilla de velocidad cada hora. La jerarquización de los nodos en razón de su velocidad nos ayuda a tener un control estricto de la agrupación. A diferencia de las máquinas comerciales, el funcionamiento del superordenador de piedra siempre va a mejor, gracias a la aportación incesante de actualizaciones gratuitas.

Resolución de problemas en paralelo.

La programación en paralelo requiere habilidad e ingenio. Puede constituir un reto mayor que la propia conjunción de ordenadores para crear el sistema Beowulf. Por modelo de programación acostumbra recurrirse a aplicaciones del tipo cliente-servidor. En él, un nodo, que actúa como cliente, dirige el procesado desarrollado por otro o varios más nodos servidores. Nosotros ejecutamos el mismo software en todos los nodos que integran el superordenador de piedra; asignamos secciones diferentes de código a los nodos cliente y servidor. Cada microprocesador de la agrupación ejecuta sólo la sección apropiada para su tarea. Los errores de programación pueden tener consecuencias importantes y provocar un descarrilamiento general en cadena cuando del fallo de un nodo se sigue el de los demás. La búsqueda del error entre los restos del desastre puede resultar muy complicada.

Otro aspecto espinoso es el de la distribución del trabajo para su procesamiento en paralelo por los PC del sistema. Dado que el superordenador de piedra alberga microprocesadores dispares, con velocidades muy distintas, no podemos repartir de una forma homogénea la carga de trabajo entre los nodos: si actuáramos así, las máquinas más rápidas estarían ociosas durante largos períodos de tiempo a la espera de que las más lentas acabaran su procesamiento. Por eso desarrollamos un programa en cuya virtud el nodo cliente envía más información a los nodos servidores céleres conforme van terminando su tarea. En esta organización de distribución de carga, los PC más rápidos realizan la mayor parte del trabajo, aunque las máquinas lentas contribuyen al funcionamiento del sistema.

En la resolución del problema de identificación de las ecorregiones comenzamos por abordar la organización de la ingente cantidad de información a manejar: los 25 datos ambientales de cada una de las 7,8 millones de celdas de los estados contiguos de la Unión. Generamos un espacio de datos de 25 dimensiones, donde cada dimensión representaba una variable distinta (temperatura media, índice de precipitación, característica del suelo, etcétera). Asociamos a continuación cada celda con el punto correspondiente del espacio de datos. Por definición, dos puntos próximos entre sí en el espacio de datos presentan características similares y, por tanto, se adscriben a la misma ecorregión. La proximidad geográfica no constituye ningún factor en esa clasificación; por ejemplo, si dos picos de montaña muestran entornos parecidos, sus puntos del espacio de datos se hallarán muy juntos entre sí, con independencia de que les separen físicamente miles de kilómetros.

Con la información organizada, había que especificar el número de ecorregiones que se mostrarían en el mapa. La agrupación de PC asigna, a cada ecorregión, una posición seminal dentro del espacio de datos. Para cada uno de los 7,8 millones de puntos informativos, el sistema determina la posición seminal más próxima y adscribe el punto en cuestión a la ecorregión pertinente. Luego, la agrupación identifica el baricentro o núcleo de cada ecorregión, es decir, la posición media de todos los puntos adscritos a la región. Ese núcleo sustituye a la posición seminal en su calidad de punto definidor de la ecorregión. La agrupación itera entonces el proceso, reasignando los puntos informativos a ecorregiones en función de su distancia de los núcleos. Al final de cada iteración se calculan nuevos núcleos para cada ecorregión. El proceso se repite hasta que se alcanza la situación en que el número de puntos informativos que cambian su adscripción ecorregional es inferior a una cifra preestablecida. En ese momento se da por terminado el proceso de clasificación.

El levantamiento de mapas constituye una tarea propicia para el procesamiento en paralelo. Por una razón potentísima: los distintos nodos de la agrupación analizan de un modo independiente subconjuntos de los 7,8 millones de puntos informativos. Tras cada iteración, los nodos servidores envían el resultado de sus cálculos al nodo cliente, quien promedia los números recabados de todos los subconjuntos para determinar las nuevas posiciones nucleares de cada ecorregión. El cliente remite entonces esta información a los nodos servidores para la siguiente tanda de cálculos. El procesado paralelo permite también seleccionar, para cada ecorregión, las mejores posiciones seminales al principio del estudio. Elaboramos un algoritmo que posibilitara que los nodos de nuestro superordenador de piedra determinasen de manera colectiva los puntos informativos con mayor grado de dispersión; se tomarían luego éstos por posiciones seminales. Si la agrupación arranca con unas posiciones seminales bien dispersas, se requerirán un número menor de iteraciones para cartografiar las ecorregiones.

El trabajo empeñado cristalizó en una serie de mapas de los Estados Unidos que mostraban cada ecorregión en un color diferente. Los había desde los que representaban al país dividido en cuatro ecorregiones hasta los que lo partían en 5.000. En los mapas con un número menor de ecorregiones aparecían zonas fácilmente reconocibles; los estados de las Montañas Rocosas, por ejemplo, y el desértico sudoeste. Los mapas con miles de ecorregiones, por el contrario, ofrecen una complejidad mucho mayor que cualquier clasificación ambiental del país realizada con anterioridad. Puesto que bastantes especies vegetales y animales viven en una o dos ecorregiones exclusivamente, resulta palmario el interés de nuestros mapas para el estudio de la flora y la fauna en peligro.

En un comienzo, escogíamos al azar los colores de las ecorregiones. Más tarde buscábamos cierto parecido con el entorno que representaban. La combinación estocástica de nueve de las variables ambientales en tres identificadores compuestos nos permitió representarlas en el mapa con gradaciones de rojo, verde y azul. Cuando se colorea así el mapa, las tonalidades sustituyen a las líneas de contorno: el sudeste húmedo verdea, el frío noreste aparece azulado y, rojo, el oeste árido.

El superordenador de piedra logró incluso representar el desplazamiento de las ecorregiones en los Estados Unidos en la hipótesis de producirse variaciones en las condiciones ambientales por culpa del calentamiento del planeta. Recurrimos a dos situaciones o cuadros climáticos que habían pergeñado otros grupos de investigación; comparamos el mapa de ecorregiones actual con los previstos para el año 2099. A tenor de tales proyecciones, a finales del siglo XXI el entorno ambiental de Pittsburgh se parecerá al observado ahora en Atlanta; la situación de Minneapolis, por su parte, se habrá acercado a la de la actual St. Louis.

El futuro de las agrupaciones.

Para medir el rendimiento de un superordenador se le somete a una serie de pruebas comparativas, en particular la velocidad de ejecución de un programa estándar. Eso es lo acostumbrado. Con mayor rigor científico preferimos centrarnos en su idoneidad para llevar a cabo aplicaciones estándar. ¿Cómo evaluar nuestro superordenador de piedra?. Con el fin de averiguarlo, ejecutamos la misma clasificación de ecorregiones con el superordenador Paragon de Intel, propiedad del ORNL, poco antes de su jubilación. En su momento fue la máquina más rápida del laboratorio, con una velocidad punta de 150 gigaflop. Sobre la base del cotejo de procesadores, el tiempo de procesado del Paragon fue más o menos el mismo que el del superordenador de piedra. Nuestra agrupación tiene una velocidad máxima de aproximadamente 1,2 gigaflop. En esta técnica incipiente, más que la velocidad y capacidad importa dar con un buen algoritmo de procesado en paralelo.

El sistema Beowulf ha experimentado, desde la construcción del superordenador de piedra, un desarrollo sorprendente. Se han creado nuevas agrupaciones con nombres exóticos -Grendel, Naegling, Megalon, Brahma, Avalon, Medusa y theHive, por sólo mencionar algunos-, que han multiplicado las prestaciones al alcanzar mayor velocidad a menor coste. En noviembre, 28 de los 500 ordenadores más rápidos del mundo eran agrupaciones de PC, estaciones de trabajo o servidores. Con sus 512 procesadores Intel Pentium III, la agrupación de Los Lobos, de la Universidad de Nuevo México, es el octogésimo ordenador en velocidad; opera a 237 gigaflop. La agrupación Cplant, de los Laboratorios Nacionales Sandia, cuenta con 580 procesadores Alpha de Compaq y ocupa el octogesimocuarto lugar en el ranking. La Fundación Nacional para la Ciencia y el Departamento de Energía proyectan construir agrupaciones avanzadas que operen en el rango de los teraflop (un billón de operaciones de coma flotante al segundo), compitiendo con la velocidad de los superordenadores más rápidos del planeta.

Los sistemas Beowulf también se están abriendo camino en el ámbito empresarial. Las compañías de productos informáticos comienzan a vender agrupaciones a empresas con un alto nivel de informatización. IBM, por ejemplo, está construyendo una agrupación de 1250 servidores para NuTec Sciences, empresa de biotecnología que proyecta dedicar el sistema a la identificación de genes responsables de enfermedades. De parejo interés es la tendencia hacia el desarrollo de redes de PC que contribuyen con su potencia de procesamiento a tareas colectivas. Pensamos en SETI@home, lanzado por investigadores de la Universidad de California en Berkeley que analizan señales de radio del espacio profundo en su búsqueda de señales de vida inteligente. SETI@home envía chorros de datos vía Internet a más de tres millones de PC, que procesan los datos de radioseñales en su tiempo libre. Algunos expertos de la industria de los ordenadores predicen que los investigadores terminarán por crear un tendido computacional similar a la red energética: los usuarios podrán obtener capacidad de procesado con la misma facilidad con que ahora contratan suministro eléctrico.

El sistema Beowulf es, por encima de todo, una fuerza multiplicadora. Acerca la computación de alto nivel, exclusiva de unos pocos privilegiados, a los sistemas de bajo coste de procesado en paralelo, accesibles para la mayoría con recursos modestos. Grupos de investigación, universidades o pequeñas empresas pueden construir sus propias agrupaciones Beowulf, su propio superordenador.

Bibliografía complementaria:

Cluster computing: Linux taken to the extreme. F. M. Hoffman y W. W. Hargrove en Linux Magazine, volumen 1, número 1, páginas 56- 59; primavera 1999.

Using multivariate clustering to characterize ecoregion borders. W. W. Hargrove y F. M. Hoffman en Computers in Science and Engineering, volumen 1, número 4, páginas 18-25; julio/agosto 1999.

How to build a beowulf: a guide to the implementation and application of PC clusters. Dirigido por T. Sterling, J. Salmon, D. J. Becker y D. F. Savarese. MIT Press, 1999.


Agrupación de ordenadores personales en el Laboratorio Nacional de Oak Ridge en Tennessee. Por su carácter artesanal se le ha dado el nombre de «superordenador de piedra».
1. Agrupación de ordenadores personales en el Laboratorio Nacional de Oak Ridge en Tennessee. Por su carácter artesanal se le ha dado el nombre de «superordenador de piedra».

Sistema formado por monitor y teclado para resolver los problemas que puedan surgir en el funcionamiento correcto del superordenador de piedra.
2. Sistema formado por monitor y teclado para resolver los problemas que puedan surgir en el funcionamiento correcto del superordenador de piedra.

Agrupación de ordenadores del Museo Americano de Historia Natural de Nueva York. Contiene 560 microprocesadores Pentium III. Los investigadores hacen uso del sistema para el estudio de la formación de estrellas y su evolución.
3. Agrupación de ordenadores del Museo Americano de Historia Natural de Nueva York. Contiene 560 microprocesadores Pentium III. Los investigadores hacen uso del sistema para el estudio de la formación de estrellas y su evolución.


Una agrupación de ordenadores.

Agrupación de ordenadores.
Agrupación de ordenadores.

Agrupación de ordenadores. El «superordenador de piedra» del Laboratorio Nacional de Oak Rigde consta de más de 130 PC enlazados entre sí para formar una agrupación. Una de las máquinas desempeña la labor de punta de lanza para la agrupación; cuenta con dos tarjetas Ethernet, una para comunicarse con los usuarios y redes externas y otra para la comunicación con el resto de nodos de la agrupación. El sistema resuelve los problemas mediante el procesado en paralelo divide la carga operacional en multitud de tareas, asignadas a los nodos. Los PC coordinan sus tareas y comparten resultados intermedios a través del intercambio de mensajes.


Cartografía con el ordenador de piedra.

Para levantar el mapa de las ecorregiones de los estados contiguos de la Unión, nuestro superordenador de piedra comparó 25 variables ambientales de 7,8 millones celdas de un kilómetro cuadrado. A modo de ejemplo, considérese la clasificación de nueve celdas basada en sólo tres variables (temperatura, precipitación y materia orgánica contenida en el suelo).

La figura A muestra la forma en que la agrupación de ordenadores personales representaría las celdas en un espacio de datos tridimensional y las agruparía en cuatro ecorregiones. El mapa de cuatro regiones divide la nación en zonas reconocibles (figura B); el mapa que divide el país en 1.000 ecorregiones proporciona más detalle (C). Otra aproximación es la representación de las tres características con una gradación de rojo, verde y azul (D).

Cartografía con el superordenador de piedra.
Cartografía con el superordenador de piedra.


William W. Hargrove, Forrest M. Hoffman y Thomas Sterling han participado en el desarrollo del sistema Beowulf. Hargrove trabaja en el departamento de física e ingeniería de la computación del Laboratorio Nacional Oak Ridge (ORNL) en Tennessee, en cuyo departamento de ciencias ambientales Hoffman, especialista en ordenadores, presta sus servicios. Sterling creó la primera agrupación Beowulf mientras investigaba en el Centro Goddard de Vuelos Espaciales de la NASA. Hoy se halla adscrito al Instituto de Tecnología de California.


Enlaces relacionados:

La moneda y la constitución.

En defensa de las secciones de crédito de las cooperativas agrarias catalanas.

Barcelona tendrá el próximo año una moneda local virtual.

Jordi Griera: «La inteligencia artificial debe ser de código abierto y de titularidad pública».

La desunión fiscal europea. Joan Casals.

La moneda social por Jordi Griera.

Concursante (fragmento).

El Banco Central de Canadá podría recuperar su capacidad de emitir y entregar dinero al estado sin la banca privada como intermediaria: un revolucionario caso judicial silenciado en los medios.

Dos entrevistas a Martin Armstrong. El visionario.

Najia Lotfi: «El Corán promueve la economía social». La banca sin interés.

Portada | ¿Quiénes somos? | Enlaces | Agenda | Actividades realizadas | Contacto