Podemos definir a las supercomputadoras como computadoras diseñadas y
preparadas para lograr resultados con un tiempo de respuesta lo más corto
posible. Para lograr este objetivo deben alcanzar grandes velocidades de
proceso, haciendo uso de técnicas especiales, tanto en el hardware, por
medio del circuitaje, como en el software, utilizando lenguajes de
características selectivas y distintivas y algoritmos especiales que se adapten
a la gran performance de los elementos físicos del sistema.
Podemos definir a las supercomputadoras como computadoras diseñadas y
preparadas para lograr resultados con un tiempo de respuesta lo más corto
posible. Para lograr este objetivo deben alcanzar grandes velocidades de
proceso, haciendo uso de técnicas especiales, tanto en el hardware, por
medio del circuitaje, como en el software, utilizando lenguajes de
características selectivas y distintivas y algoritmos especiales que se
adapten a la gran performance de los elementos físicos del sistema.
Estos ordenadores poseen una gran memoria central, con organización
específica según la arquitectura utilizada, y utilizan la ejecución concurrente
o simultánea de procesos, al mismo tiempo que tiene optimizadas las
funciones de entrada/salida, lo que en conjunto logra llegar a rendimientos
mucho más altos que los de las computadoras convencionales.
No debemos confundir el concepto de supercomputadora con el de
mainframe (o servidores). Estos últimos utilizan toda su capacidad de
procesamiento en la ejecución de muchos programas simultáneamente,
respondiendo al pedido de varias terminales en tiempo real, mientras que
el uso que se les da a las supercomputadoras es el de ejecutar unos pocos
programas lo más rápido posible canalizando en ello todo su poder. Esto
no significa que una supercomputadora no pueda desempeñar la tarea de
servidor, de hecho el proyecto Internet2 tiene como sustento una
supercomputadora, la Cray Origin 2000, a la que luego se le sumará otra,
para centralizar los pedidos de varios lugares del mundo, claro que como
podemos apreciar, en este caso podríamos llamarlas superservidores.
Existen varias formas de realizar tareas en forma simultanea o concurrente,
es decir, de lograr paralelismo, y que son utilizadas por las
supercomputadoras. A continuación describiremos brevemente algunas de
ellas.
Una forma de aumentar el número de operaciones que un procesador
puede ejecutar por unidad de tiempo es tener en cuenta las diferentes
etapas que hay que realizar para que tal operación quede concluida.
Supongamos que la suma de dos cantidades conste de cuatro pasos para
arrojar el resultado. Una máquina escalar o de Von Neumann ejecuta estos
pasos secuencialmente y una segunda suma no comenzará a llevarse a cabo
a menos que la primera esté concluida.Si al comenzar la segunda etapa de
una primera suma, al mismo tiempo comienza la primera etapa para una
segunda suma nos encontraremos con que aunque la segunda suma continúe
tardando cuatro unidades de tiempo, en el instante ocho tendremos cinco
sumas realizadas en vez de dos.Esta técnica es denominada segmentación
o pipelinig, y también se utiliza en industrias distintas a la informática con el
mismo objetivo del ahorro de tiempo.Todos aquellos procesadores cuya
arquitectura sigue el principio expuesto se denominan segmentados o
vectoriales ya que el dispositivo que realiza el pipelining recibe como datos
vectores.
UN EJEMPLO DE ARQUITECTURA: PISMA
Pisma (Parallel Virtually Shared-Memory Architecture, Arquitectura de
Memoria Paralela Virtualmente Compartida) es una nueva arquitectura de
multiprocesamiento paralelo que combina los mejores diseños de memoria
compartida y distribuida. El resultado es un diseño altamente escalable
(más de cien procesadores) sin problemas de cuello de botella en el bus
debido a su esquema de memoria distribuida, siendo al mismo tiempo
fácilmente programable como un diseño parcial de memoria compartida.Las
computadoras paralelas de hoy en día están en su mayoría basadas en el
modelo de memoria compartida - bus compartido. Debido a la memoria
compartida estas computadoras son fáciles de programar pero el ancho de
bandas limitado del bus compartido restringe el número de procesadores en
el sistema.Las arquitecturas de memoria distribuida permiten mejor
escalabilidad pero son más difíciles de programar eficientemente.
Una arquitectura llamada "chess" (ajedrez, renombrado hoy a Pisma)
combina lo mejor de ambos mundos en una arquitectura de memoria
distribuida que usa tanto como es posible las ventajas del modelo de
memoria compartida.
Una máquina Pisma está formada por procesadores y partes de memorias
alternados como en un tablero de ajedrez. Cada procesador está conectado
a cuatro memorias y viceversa, de esta forma cada procesador tiene memoria
en común con otros ocho procesadores. El trabajo se difunde eficientemente
en el "vecindario de procesadores" que pueden usar esa memoria en común
como memoria compartida.Por otro lado Pisma es escalable sin límite,
bloques como los descriptos pueden ser combinados juntos formando una
superficie de proceso más grande. Esta superficie de proceso puede
envolverse alrededor uniendo ambos extremos para formar una superficie de
proceso "toroidal".
En este apartado dare las descripciones básicas de las supercom-putadoras
usadas en la actualidad. Para ello he seleccionado dos marcas, la
norteamericana Cray y la japonesa Fujitsu. Estas compañías son pioneras en
el desarrollo de nuevas tecnologías de supercompu- tación y representan el
estado actual de la competencia competencia continua entre estos dos
grandes países, los que más invierten en desarrollo tecnológico.
Las computadoras Cray son desarrolladas por la empresa SGI
(Silicon Graphics) en los Estados Unidos, quien tiene desarrollado un
modelo de trabajo que enfoca a clientes (empresas, organismos de
investigación e instituciones) con los más altos requerimientos. Cray es líder
en el mercado global en todas sus categorías de producción. Con la serie de
sistemas de procesamiento vectorial de alto rendimiento T90, la serie SV1
de procesamiento vectorial escalable, la T3E, sistema de procesamiento
paralelo escalable de memoria distribuida y con su serie más potente, las
Origin2000, sistema RISC escalable, satisface todas las necesidades de
supercálculo y gestión.
Esta serie ofrece una amplia gama de performances, desde decenas hasta
miles de procesadores y hasta 2.4 billones de cálculos por segundo (Tflops).
Sus principales características son:
--> Soporta grandes cargas de trabajo paralelo con hasta 4 TB de memoria
central.
--> Tiene un ancho de banda de entrada-salida de hasta 128 Gb por segundo.
--> Fácilmente instalable.
-->Ofrece configuraciones de sistemas que constan desde 6 hasta 2048
procesadores, ofreciendo flexibilidad para la adquisición de los clientes.
--> Mas de 2.4 Tflops de pico de performance ofrecen la cantidad más grande
de poder de procesamiento para aplicaciones paralelas.
-->Microprocesador DEC Alpha EV5, con picos de performance de 600 Mflops
, con tecnología Risc, memoria local y aceleración lógica conforman los
elementos de proceso o nodos.
-->Refrigeración por medio de aire o de líquido optimizando así las
condiciones de trabajo del sistema.
Fujitsu fue la primera empresa en el mundo en desarrollar arquitectura
paralela, usando para la interconexión entre los elementos de proceso (PEs)
una veloz red de trabajo cruzada cuyo esquema y apariencia puede verse
más adelante. Fujitsu reemplazó muchos sistemas utilizando esta arquitectura
y acumuló así un amplio conocimiento en varias áreas del supercómputo.
El último desarrollo de la empresa japonesa es la serie VPP5000 de alta perform
ance, que posee alta velocidad, gran capacidad de proceso y un sistema
flexible y amigable con el usuario y que a continuación describiremos
brevemente.
UNIDAD VECTORIAL:
consta de cuatro líneas de fragmentación (pipelines),
un registro vector, un registro de máscara, posibilitando alcanzar velocidades
de 9.6 Gflops por PE. También cuenta con una línea de segmentación de raíz
cuadrada que optimiza toda las operaciones que requieran de este tipo de
cálculo.
UNIDAD ESCALAR:
sigue una arquitectura RISC de instrucciones VLIW
(palabra de instrucción muy larga) que posibilita la ejecución de hasta cuatro
instrucciones por ciclo. Posee un primer y un segundo caché además de la
ejecución asincrónica de acceso a memoria y una unidad de operación de
punto flotante.
Apariencias físicas de la red cruzada de interconexión y una placa de PEs.
Posee una interfaz gráfica que hace el manejo de las aplicaciones y el
mantenimiento de fácil uso para los usuarios no tan experimentados.
Con el fin de deducir las leyes que rigen el movimiento
de las distintas capas en el planeta Tierra conduce a la aplicación de métodos
de cálculo intensivo para lo que se hace necesario el empleo de potentes
computadoras y grandes bases de datos con información histórica recogida
en distintos lugares de las zonas más afectadas por movimientos sísmicos.
Áreas que se ven afectadas por este tipo de dinámica terrestre utilizan estos
modelos desarrollados sobre computadoras de gran escala y rendimiento,
para poder conocer el tipo de construcción a emplear para cada zona o
población.Cuando las supercomputadoras no habían aparecido aún en el
mercado, el proceso de los datos que alimentaban al modelo era lento, y
por lo tanto, poco realista y nada efectivo.
Al hablar de ingeniería de petróleo, deben
entenderse dos facetas. Por una parte la búsqueda de yacimientos o
exploración y por otra, de las técnicas de optimización encaminadas a una
producción máxima y económica. El coste del petróleo justifica la inversión
en la elaboración de modelos matemáticos cuya resolución última se lleva a
cabo actualmente en computadoras de altas prestaciones.
Algunas aplicaciones científicas normalmente
incluyen el xamen y proceso de una gran cantidad de datos, correspondientes
a numerosos puntos distintos del espacio y de forma simulatánea. Para
desarrollar un modelo de estudio del tiempo, los datos a incluír serán:
temperatura, presión barométrica, velocidad y dirección del viento, y todo
ello para distintos puntos geográficos próximos al lugar cuyo estudio se trata
de abordar.
Con todo lo anterior se obtiene una malla espacial tridimensional formada por
cientos de puntos que constituyen la base para el cálculo del modelo de
predicción del tiempo.
La predicción del tiempo puede incluírse en las aplicaciones de las
supercomputadoras al estudio de la dinámica de fluidos.
OTRAS APLICACIONES:
Existen otras aplicaciones de la ciencia, la técnica y
la sociedad donde la intervención de las supercomputadoras tiene una
importancia creciente. Se pueden citar las siguientes: tratamiento de
imágenes captadas de modo analógico y procesadas luego de forma digital,
en el área de la química, la química y física cuántica y ña química molecular
, en el ámbito de la física, el estudio de la estructura de la materia, la
oceanografía, la energía nuclear, el diseño y la construcción de estructuras
de edificación, el análisis de nuevos materiales para la fabricación de toda
clase de vehículos, la astrofísica, el diagnóstico médico y en econometría la
elaboración de modelos económicos a escala nacional y mundial.