Basic Linear Algebra Subprograms

aus Wikipedia, der freien Enzyklopädie
Wechseln zu: Navigation, Suche
Dieser Artikel befasst sich mit Basic Linear Algebra Subprograms, für weitere Bedeutungen von „Blas“ siehe Blas (Begriffsklärung).
BLAS
Betriebssystem plattformunabhängig
Kategorie Programmbibliothek für: Lineare Algebra
www.netlib.org/blas

Basic Linear Algebra Subprograms (BLAS) bezeichnet eine Softwarebibliothek, die elementare Operationen der linearen Algebra wie Vektor- und Matrixmultiplikationen implementiert. Es gibt eine Vielzahl von Implementierungen in verschiedenen Sprachen bzw. für verschiedene Architekturen und Plattformen. Der Vorteil von BLAS liegt nicht nur in der Wiederverwendbarkeit und der Arbeitserleichterung für den Programmierer, sondern auch in der Möglichkeit für Hardwarehersteller für diese häufig gebrauchten Subroutinen hochoptimierte, zum Teil in Assembler realisierte Implementierungen bereitzustellen.[1] Daher findet BLAS vor allem im Supercomputing-Bereich breite Verwendung.

Die Definition der Schnittstelle zu BLAS ist ein De-facto-Standard.

Funktionalität[Bearbeiten]

Es werden folgende Datentypen unterstützt: single (32 Bit), double (64 Bit), complex (2 x 32 Bit), doublecomplex (2 x 64 Bit).

Die Funktionalität von BLAS wird in drei Stufen (Level) unterteilt:

Level 1[Bearbeiten]

Level 1 enthält Vektor-Rechenoperationen der Form

\mathbf{y} \leftarrow \alpha \mathbf{x} + \mathbf{y} \!

sowie unter anderem Skalarprodukt und Vektornormen.

Level 2[Bearbeiten]

Level 2 enthält Vektor-Matrix-Rechenoperationen der Form

\mathbf{y} \leftarrow \alpha A \mathbf{x} + \beta \mathbf{y} \!

sowie unter anderem das Lösen von T \mathbf{x} = \mathbf{y} nach x mit Matrix T in Dreiecksform.

Level 3[Bearbeiten]

Level 3 enthält Matrix-Rechenoperationen der Form

C \leftarrow \alpha A B + \beta C \!

sowie unter anderem das Lösen von B \leftarrow \alpha T^{-1} B für Matrix T in Dreiecksform. Dieser Level enthält die oft benötigte Matrixmultiplikation.

Implementierungen[Bearbeiten]

refblas
Offizielle Referenzimplementierung von netlib. C- und Fortran-77-Versionen sind verfügbar.
ACML
AMD Core Math Library, für AMD Athlon und Opteron CPUs unter Linux und Windows.
ATLAS
Automatically Tuned Linear Algebra Software, ein Open-Source-Implementierung der BLAS-APIs für C und Fortran 77.
ESSL
IBMs Engineering and Scientific Subroutine Library, für die PowerPC Architektur unter AIX und Linux.
Goto BLAS
Kazushige Gotos BLAS-Implementierung.[2]
HP MLIB
HPs Math library, für die Architekturen Itanium, PA-RISC, x86 und Opteron unter HP-UX und Linux.
IMKL
Intel Math Kernel Library (BLAS, LAPACK, ScaLAPACK, Sparse Solvers, FFT, Vector Math), für Intel-Prozessoren unter Linux, Mac OS X und Windows.
LAMA
Die Library for Accelerated Math Applications (LAMA) ist eine, in C++ geschriebene, Template-Bibliothek zum Schreiben numerischer Löser für verschiedene Hardware (z. B. GPUs mittels CUDA oder OpenCL) in Systemen mit verteiltem Speicher - sie versteckt die hardwarespezifische Programmierung vor dem Anwendungsentwickler.[3]
MTL4
Die Matrix Template Library Version 4 ist eine generische C++ Template-Bibliothek für schwach und voll besetzte BLAS-Funktionalität. MTL4 bietet ein intuitives Interface (ähnlich MATLAB) und dank Generischer Programmierung eine breite Anwendbarkeit.
uBLAS
Eine generische C++-Klassenbibliothek, welche BLAS-Funktionalität bereitstellt, Teil der Boost-Bibliothek.
CUBLAS
Die Nvidia-Implementierung von BLAS für die CUDA-Technologie.
clBLAS
Eine Implementierung von BLAS für OpenCL.
AmdBLAS
Die AMD-Implementierung von BLAS für das ATI Stream-SDK.
Armadillo
Die Armadillo Template-Bibliothek ist ein Wrapper für C++.

Weblinks[Bearbeiten]

Einzelnachweise[Bearbeiten]

  1. BLAS Benchmark-August2008. eigen.tuxfamily.org. 1. August 2008. Abgerufen am 4. März 2010.
  2. Writing the Fastest Code, by Hand, for Fun: A Human Computer Keeps Speeding Up Chips (englisch). New York Times, John Markoff. 28. November 2005. Abgerufen am 4. März 2010.
  3. www.libama.org