Html/Javascript widget
Sunday, 10 August 2025
CUDA cluster
Einige Funktionen der Maschine des Institute for Computational and Mathematical Engineering (ICME) der Stanford University.
Controller
· 2 x Intel® Xeon® X5650 2.66GHz 12MB Cache Hexa-core Processor
· 48GB DDR3 1333 REG ECC 12 x 4GB Sticks
· 8 x Hitachi 3TB Ultrastar 7K3000 7200 RPM 64MB Cache SATA
...
Nodes (currently 13 nodes running)
· 2 x Intel Xeon DP E5645 2.40GHz 12MB Cache Hexa-core Processor's.
· 48GB DDR3 1333 REG ECC Memory 12 x 4GB Sticks
· 1 x 1TB Seagate SATA3 6Gb/s 7200RPM 64MB Cache 2.5 Inch Disk Drive
· 1 x ConnectX-2® InfiniBand adapter card, single-port, QDR 40Gb/s,Gen2
· Seven NVIDIA FERMI-BASED C2070 GPU’s per node each with 448 CUDA cores, 6 GB memory
Die Architektur aus Controller und 13 Verarbeitungsknoten entspricht der eines Clusters, da es sich bei den Komponenten offensichtlich um marktübliche Komponenten handelt.
CUDA
Cuda ist eine parallele Computertechnologie, die die Verwendung von Hunderten oder Tausenden von Kernen (CUDAs) auf einem einzigen Prozessor ermöglicht.
Beim Programmieren mit CUDA geht es um das Schreiben von Kerneln, also Funktionen, die parallel von mehreren Threads auf einer GPU ausgeführt werden.
In Cuda programming, a function declared with __global__ is executed on the device (GPU).It can only be called from the host (CPU) code. This means your main C/C++ application running on the CPU launches these kernel functions to perform computations on the GPU.
CUDA und MPI sind beides Programmiersprachen für die parallele Programmierung, aber CUDA ist spezifisch für die Programmierung auf GPUs, während MPI für die Interprozesskommunikation in verteilten Systemen verwendet wird.
Grafikkarten, die die GPGPU-Technologie (z. B. CUDA, OpenCL) unterstützen, bieten nicht nur hochwertige visuelle Effekte in Spielen und Multimedia-Anwendungen, sondern ermöglichen auch erhebliche Leistungssteigerungen in Anwendungen, die eine große Anzahl einfacher und sich wiederholender Berechnungen durchführen.
Subscribe to:
Posts (Atom)