Site hosted by Angelfire.com: Build your free website today!



SUPERCOMPUTADORAS

Podemos definir a las supercomputadoras como computadoras diseñadas y preparadas para lograr resultados con un tiempo de respuesta lo más corto posible. Para lograr este objetivo deben alcanzar grandes velocidades de proceso, haciendo uso de técnicas especiales, tanto en el hardware, por medio del circuitaje, como en el software, utilizando lenguajes de características selectivas y distintivas y algoritmos especiales que se adapten a la gran performance de los elementos físicos del sistema.

Podemos definir a las supercomputadoras como computadoras diseñadas y preparadas para lograr resultados con un tiempo de respuesta lo más corto posible. Para lograr este objetivo deben alcanzar grandes velocidades de proceso, haciendo uso de técnicas especiales, tanto en el hardware, por medio del circuitaje, como en el software, utilizando lenguajes de características selectivas y distintivas y algoritmos especiales que se adapten a la gran performance de los elementos físicos del sistema.

Estos ordenadores poseen una gran memoria central, con organización específica según la arquitectura utilizada, y utilizan la ejecución concurrente o simultánea de procesos, al mismo tiempo que tiene optimizadas las funciones de entrada/salida, lo que en conjunto logra llegar a rendimientos mucho más altos que los de las computadoras convencionales.

No debemos confundir el concepto de supercomputadora con el de mainframe (o servidores). Estos últimos utilizan toda su capacidad de procesamiento en la ejecución de muchos programas simultáneamente, respondiendo al pedido de varias terminales en tiempo real, mientras que el uso que se les da a las supercomputadoras es el de ejecutar unos pocos programas lo más rápido posible canalizando en ello todo su poder. Esto no significa que una supercomputadora no pueda desempeñar la tarea de servidor, de hecho el proyecto Internet2 tiene como sustento una supercomputadora, la Cray Origin 2000, a la que luego se le sumará otra, para centralizar los pedidos de varios lugares del mundo, claro que como podemos apreciar, en este caso podríamos llamarlas superservidores.

ARQUITECTURA PARALELAS

Existen varias formas de realizar tareas en forma simultanea o concurrente, es decir, de lograr paralelismo, y que son utilizadas por las supercomputadoras. A continuación describiremos brevemente algunas de ellas.

PROCESADORES SEGMENTADOS

Una forma de aumentar el número de operaciones que un procesador puede ejecutar por unidad de tiempo es tener en cuenta las diferentes etapas que hay que realizar para que tal operación quede concluida. Supongamos que la suma de dos cantidades conste de cuatro pasos para arrojar el resultado. Una máquina escalar o de Von Neumann ejecuta estos pasos secuencialmente y una segunda suma no comenzará a llevarse a cabo a menos que la primera esté concluida.Si al comenzar la segunda etapa de una primera suma, al mismo tiempo comienza la primera etapa para una segunda suma nos encontraremos con que aunque la segunda suma continúe tardando cuatro unidades de tiempo, en el instante ocho tendremos cinco sumas realizadas en vez de dos.Esta técnica es denominada segmentación o pipelinig, y también se utiliza en industrias distintas a la informática con el mismo objetivo del ahorro de tiempo.Todos aquellos procesadores cuya arquitectura sigue el principio expuesto se denominan segmentados o vectoriales ya que el dispositivo que realiza el pipelining recibe como datos vectores.

UN EJEMPLO DE ARQUITECTURA: PISMA

Pisma (Parallel Virtually Shared-Memory Architecture, Arquitectura de Memoria Paralela Virtualmente Compartida) es una nueva arquitectura de multiprocesamiento paralelo que combina los mejores diseños de memoria compartida y distribuida. El resultado es un diseño altamente escalable (más de cien procesadores) sin problemas de cuello de botella en el bus debido a su esquema de memoria distribuida, siendo al mismo tiempo fácilmente programable como un diseño parcial de memoria compartida.Las computadoras paralelas de hoy en día están en su mayoría basadas en el modelo de memoria compartida - bus compartido. Debido a la memoria compartida estas computadoras son fáciles de programar pero el ancho de bandas limitado del bus compartido restringe el número de procesadores en el sistema.Las arquitecturas de memoria distribuida permiten mejor escalabilidad pero son más difíciles de programar eficientemente. Una arquitectura llamada "chess" (ajedrez, renombrado hoy a Pisma) combina lo mejor de ambos mundos en una arquitectura de memoria distribuida que usa tanto como es posible las ventajas del modelo de memoria compartida.

Una máquina Pisma está formada por procesadores y partes de memorias alternados como en un tablero de ajedrez. Cada procesador está conectado a cuatro memorias y viceversa, de esta forma cada procesador tiene memoria en común con otros ocho procesadores. El trabajo se difunde eficientemente en el "vecindario de procesadores" que pueden usar esa memoria en común como memoria compartida.Por otro lado Pisma es escalable sin límite, bloques como los descriptos pueden ser combinados juntos formando una superficie de proceso más grande. Esta superficie de proceso puede envolverse alrededor uniendo ambos extremos para formar una superficie de proceso "toroidal".

SUPERCOMPUTADORAS ACTUALES

En este apartado dare las descripciones básicas de las supercom-putadoras usadas en la actualidad. Para ello he seleccionado dos marcas, la norteamericana Cray y la japonesa Fujitsu. Estas compañías son pioneras en el desarrollo de nuevas tecnologías de supercompu- tación y representan el estado actual de la competencia competencia continua entre estos dos grandes países, los que más invierten en desarrollo tecnológico.

SUPERCOMPUTADORAS CRAY

Las computadoras Cray son desarrolladas por la empresa SGI (Silicon Graphics) en los Estados Unidos, quien tiene desarrollado un modelo de trabajo que enfoca a clientes (empresas, organismos de investigación e instituciones) con los más altos requerimientos. Cray es líder en el mercado global en todas sus categorías de producción. Con la serie de sistemas de procesamiento vectorial de alto rendimiento T90, la serie SV1 de procesamiento vectorial escalable, la T3E, sistema de procesamiento paralelo escalable de memoria distribuida y con su serie más potente, las Origin2000, sistema RISC escalable, satisface todas las necesidades de supercálculo y gestión.

CRAY T3E-1200E

Esta serie ofrece una amplia gama de performances, desde decenas hasta miles de procesadores y hasta 2.4 billones de cálculos por segundo (Tflops). Sus principales características son:

--> Soporta grandes cargas de trabajo paralelo con hasta 4 TB de memoria central.

--> Tiene un ancho de banda de entrada-salida de hasta 128 Gb por segundo.

--> Fácilmente instalable.

-->Ofrece configuraciones de sistemas que constan desde 6 hasta 2048 procesadores, ofreciendo flexibilidad para la adquisición de los clientes.

--> Mas de 2.4 Tflops de pico de performance ofrecen la cantidad más grande de poder de procesamiento para aplicaciones paralelas.

-->Microprocesador DEC Alpha EV5, con picos de performance de 600 Mflops , con tecnología Risc, memoria local y aceleración lógica conforman los elementos de proceso o nodos.

-->Refrigeración por medio de aire o de líquido optimizando así las condiciones de trabajo del sistema.

Los sistemas T3E incluyen compiladores Fortran 90, C y C++, además de incluir poderosos sistemas de depuramiento de aplicaciones paralelas, herramientas de análisis de aplicaciones escalables y librerías de matemática optimizada y paralela así como de operaciones científicas.Algunos de los clientes incluyen al Departamento de Defensa de los Estados Unidos, Instituto de Investigación de Sistemas de Ingeniería de Corea, Meteorología Oficial del Reino Unido, la NASA y el Centro de Computación de Alta Performance de los Estados Unidos.

SUPERCOMPUTADORAS FUJITSU

Fujitsu fue la primera empresa en el mundo en desarrollar arquitectura paralela, usando para la interconexión entre los elementos de proceso (PEs) una veloz red de trabajo cruzada cuyo esquema y apariencia puede verse más adelante. Fujitsu reemplazó muchos sistemas utilizando esta arquitectura y acumuló así un amplio conocimiento en varias áreas del supercómputo. El último desarrollo de la empresa japonesa es la serie VPP5000 de alta perform ance, que posee alta velocidad, gran capacidad de proceso y un sistema flexible y amigable con el usuario y que a continuación describiremos brevemente.

CONFORMACIÓN DE LOS ELEMENTOS DE PROCESO

UNIDAD VECTORIAL:

consta de cuatro líneas de fragmentación (pipelines), un registro vector, un registro de máscara, posibilitando alcanzar velocidades de 9.6 Gflops por PE. También cuenta con una línea de segmentación de raíz cuadrada que optimiza toda las operaciones que requieran de este tipo de cálculo.

UNIDAD ESCALAR:

sigue una arquitectura RISC de instrucciones VLIW (palabra de instrucción muy larga) que posibilita la ejecución de hasta cuatro instrucciones por ciclo. Posee un primer y un segundo caché además de la ejecución asincrónica de acceso a memoria y una unidad de operación de punto flotante.

La memoria principal tiene capacidad de hasta 16 GB por PE, acumulando hasta 8 TB por sistema.Los PEs están interconectados por una red cruzada y siempre hay hardware dedicado a las comunicaciones interprocesador. Los datos pueden transferirse a velocidades de hasta 1.6 GB por segundo, siempre mientras las operaciones en los PE están en progreso.Los dispositivos usados para los PEs están manufacturados por un proceso de 0.22 m m. Contando con más de 33 millones de transistores cada uno. Su memoria principal está constituida por 16 MB de tecnología SDRAM y con un tiempo de acceso de 45 nanosegundos.

Configuración de un Elemento de Proceso de la VPP 5000.

Detalle de la interconexión de los elementos de proceso con la red cruzada.

Apariencias físicas de la red cruzada de interconexión y una placa de PEs.

Los sistemas VPP 5000 utilizan compiladores C, C++, Fortran90 y Fortran/VPP (optimizado para estos sistemas), y el estándar HPF 2.0. Además posee un conjunto de aplicaciones para análisis estructural, de secuencias, de análisis de procesos paralelos y librerías matemáticas.

Posee una interfaz gráfica que hace el manejo de las aplicaciones y el mantenimiento de fácil uso para los usuarios no tan experimentados.

APLICACIONES DE LAS SUPERCOMPUTADORAS

Las aplicaciones de las grandes computadoras son muy variadas, cubriendo las necesidades de la ciencia, de la técnica, de la economía y de los estudios sociales. Algunas suministradoras de supercomputadoras han llevado a cabo prospecciones de mercado tratando de conocer cuales son las aplicaciones científicas y técnicas que de una forma más prioritaria demandan potencia de cálculo para la solución de este tipo de aplicaciones. Como resultado se ha elaborado una relación que abarca la ingeniería civil, la física y la química cuántica, la dinámica molecular, el diseño de semiconductores, los estudios geológicos y el análisis sísmico, la dinámica de fluidos y la meteorología.

Al abrigo de estas necesidades las compañías de software producen paquetes destinados a la solución de las aplicaciones apuntadas anteriormente y a las otras que van surgiendo a medida que las arquitecturas avanzadas progresan en potencia y rendimiento.

ANÁLISIS SÍSMICO:

Con el fin de deducir las leyes que rigen el movimiento de las distintas capas en el planeta Tierra conduce a la aplicación de métodos de cálculo intensivo para lo que se hace necesario el empleo de potentes computadoras y grandes bases de datos con información histórica recogida en distintos lugares de las zonas más afectadas por movimientos sísmicos. Áreas que se ven afectadas por este tipo de dinámica terrestre utilizan estos modelos desarrollados sobre computadoras de gran escala y rendimiento, para poder conocer el tipo de construcción a emplear para cada zona o población.Cuando las supercomputadoras no habían aparecido aún en el mercado, el proceso de los datos que alimentaban al modelo era lento, y por lo tanto, poco realista y nada efectivo.

INGENIERÍA DE PETROLEOS:

Al hablar de ingeniería de petróleo, deben entenderse dos facetas. Por una parte la búsqueda de yacimientos o exploración y por otra, de las técnicas de optimización encaminadas a una producción máxima y económica. El coste del petróleo justifica la inversión en la elaboración de modelos matemáticos cuya resolución última se lleva a cabo actualmente en computadoras de altas prestaciones.

PREDICCIÓN DEL TIEMPO:

Algunas aplicaciones científicas normalmente incluyen el xamen y proceso de una gran cantidad de datos, correspondientes a numerosos puntos distintos del espacio y de forma simulatánea. Para desarrollar un modelo de estudio del tiempo, los datos a incluír serán:

temperatura, presión barométrica, velocidad y dirección del viento, y todo ello para distintos puntos geográficos próximos al lugar cuyo estudio se trata de abordar.

Con todo lo anterior se obtiene una malla espacial tridimensional formada por cientos de puntos que constituyen la base para el cálculo del modelo de predicción del tiempo.

La predicción del tiempo puede incluírse en las aplicaciones de las supercomputadoras al estudio de la dinámica de fluidos.

OTRAS APLICACIONES:

Existen otras aplicaciones de la ciencia, la técnica y la sociedad donde la intervención de las supercomputadoras tiene una importancia creciente. Se pueden citar las siguientes: tratamiento de imágenes captadas de modo analógico y procesadas luego de forma digital, en el área de la química, la química y física cuántica y ña química molecular , en el ámbito de la física, el estudio de la estructura de la materia, la oceanografía, la energía nuclear, el diseño y la construcción de estructuras de edificación, el análisis de nuevos materiales para la fabricación de toda clase de vehículos, la astrofísica, el diagnóstico médico y en econometría la elaboración de modelos económicos a escala nacional y mundial.



MENU PROCESADOES