Todos los días se rompen récords y ahora IBM Research, en Almaden, California, ha decidido romper otro. Está desarrollando tecnologías de hardware y software para permitir ligar el equivalente a unos 200,000 discos duros para crear una sola unidad de almacenamiento, un cluster de 120 petabytes (120 millones de gigabytes). El gran “disco duro“, cuando sea terminado, podría almacenar un billón de archivos, o para ponerlo en términos de MP3, dos mil millones de horas de música en ese formato: algo así como 83,333,334 días).
El depósito de dato, el cual aún no tiene un nombre, se ha desarrollado para algún cliente que aún tampoco se tiene. Pero con una capacidad de 120 PBytes, es claro que quien lo use serán empresas o instituciones que requieren de supercomputadoras y alto procesamiento de información. 120 PBytes es ideal para modelos globales del clima o simulaciones detalladas de sistemas militares. Alternativamente, podría ser usado (este cluster), para almacenar una buena porción de Internet (datos de los usuarios), por ejemplo Google o Facebook, o alguien con mucho pero mucho dinero. El sistema más grande para 2010 era de 15 PBytes. Facebook tiene un cluster de 21 PBytes y hoy mismo debe incluso ser más grande aún.
Detalles del software y hardware no han sido dados por IBM, pero ya se sabe que usará el GPFS (General Parallel File System), propietario de IBM. Este sistema permite guardar archivos individuales en múltiples discos. En otras palabras, en lugar de leer un modelo de alta resolución de muchos terabytes, a 100 Mbytes/seg de un solo disco, el mismo archivo puede leerse de forma paralela de muchos discos. Al final, el resultado es un incremento en la velocidad de escritura/lectura de los discos hasta llegar a terabytes por segundo. Y como corolario, se pueden crear más de 30,000 archivos por segundo. GPFS soporta redundancia y tolerancia de errores: cuando un disco duro falla, su contenido se rehace en un disco de reemplazo automáticamente desde la computadora que gobierna el sistema.
Del lado del hardware, si dividimos 120PBytes por 200,000 discos, tendremos 630 GBytes. Y si tomamos el factor de redundancia, es probable que cada disco tenga 1 TByte de tamaño. Se sabe también que cada uno de los 200,000 discos se enfría por agua y es probablemente uno de los sistemas de plomería más complicados y grandes que se hayan intentado. Pero considerando que IBM ya tiene experiencia enfriando sus servidores de alto rendimiento, no es de sorprenderse esto.
Fuente: Technology Review
0 comentarios:
Publicar un comentario