Field Programmable Gate Array

aus Wikipedia, der freien Enzyklopädie
(Weitergeleitet von FPGA)
Wechseln zu: Navigation, Suche

Ein Field Programmable Gate Array (FPGA) ist ein integrierter Schaltkreis (IC) der Digitaltechnik, in den eine logische Schaltung programmiert werden kann. Die englische Bezeichnung kann übersetzt werden als: im (Anwendungs-)Feld programmierbare (Logik-)Gatter-Anordnung.

Anders als bei der Programmierung von Computern oder Steuerungen bezieht sich hier der Begriff Programm nur in zweiter Linie auf die Vorgabe zeitlicher Abläufe im Baustein, sondern vor allem auf die Definition von dessen Funktionsstruktur. Durch die Programmierung von Strukturvorschriften wird zunächst die grundlegende Funktionsweise einzelner universeller Blöcke im FPGA und deren Verschaltung untereinander festgelegt. Man spricht daher auch von der Konfiguration eines FPGA.

Ein FPGA des Herstellers Altera

Funktionsprinzip[Bearbeiten]

Durch die spezifische Konfiguration interner Strukturen können in einem FPGA verschiedene Schaltungen realisiert werden. Diese reichen von Schaltungen geringer Komplexität, wie z. B. ein einfacher Synchronzähler, bis zu hochkomplexen Schaltungen wie Mikroprozessoren. FPGAs werden in allen Bereichen der Digitaltechnik eingesetzt, vor allem aber dort, wo es auf schnelle Signalverarbeitung und flexible Änderung der Schaltung ankommt, um beispielsweise nachträgliche Verbesserungen an den implementierten Funktionen vornehmen zu können, ohne dabei direkt die physische Hardware ändern zu müssen.

Mit der Einführung der FPGAs wurden kompakte, anwenderspezifische Schaltungen in geringen Stückzahlen ermöglicht. Heute gestatten sie die preiswerte und flexible Fertigung komplexer Systeme wie Mobilfunk-Basisstationen als Alternative zur teureren Auftragsfertigung durch Halbleiterhersteller.

Neben den FPGAs existieren auch FPAAs (Field Programmable Analog Array), die keine digitalen, sondern analoge Funktionsblöcke enthalten, die vom Anwender programmiert und verschaltet werden können.

Aufbau und Struktur[Bearbeiten]

Beispielhafter Logikblock eines FPGA, mit LUT und Flipflop
Schaltmatrix als Verbindungsstruktur zwischen Logikblöcken

Die wesensbestimmende Grundstruktur eines FPGA ist ein Feld (engl. Array) aus Basisblöcken mit jeweils einer einfachen programmierbaren Lookup-Tabelle (LUT) und einem 1-Bit-Register (Flipflop). Die LUTs können, je nach Anzahl der verfügbaren Eingänge, jede beliebige n-stellige Binärfunktion realisieren. Die Programmierung der gewünschten Funktion erfolgt durch die Hinterlegung der definierenden Wahrheitstabelle in den SRAM-Zellen der LUT, die Funktionsberechnung durch das Auslesen der durch die Eingänge bestimmten Speicheradresse. Lange Zeit waren LUT-Strukturen mit 4 binären Eingängen üblich. Neuere FPGAs gehen zur Verringerung des Aufwandes an LUT-zu-LUT-Verbindungen zur Realisierung von Funktionen mit mehr Eingängen auf LUTs mit bis zu 6 Eingängen über.

Neben den LUTs ist auf dem FPGA auch die Verschaltung der Komponenten in großen Freiheitsgraden konfigurierbar. Multiplexer-Strukturen in den Basisblöcken ermöglichen häufig sehr schnelle lokale Signalpfade, zur Einbindung oder Umgehung des Flipflops, zur Rückkopplung von dessen Ausgang, zur Verbindung von Nachbarblöcken und ähnlichem. Für die ferneren Verbindungen liegt zwischen den Basisblöcken ein Gitter aus immensen Busstrukturen, an das Ein- und Ausgänge angeschlossen werden können. Weitere programmierbare Schaltkomponenten in den Kreuzungspunkten des Gitters erlauben die Signalverteilung über den gesamten Chip.

Weitere Komponenten[Bearbeiten]

Weitere, meist übliche Elemente eines FPGA sind:

  • Eingangs-/Ausgangs-Blöcke (engl. IO-Blocks oder IOB) dienen der Kommunikation mit der Außenwelt. Über sie werden die Anschlüsse des FPGA mit der Schaltmatrix verbunden. Auch diese Blöcke können an die jeweilige Anwendung angepasst werden, z. B. kann die Ausgangsspannung an den jeweiligen Standard angepasst werden (TTL/CMOS usw.).
  • Ein oder mehrere Taktgeneratoren erzeugen ausgehend von an den Eingängen zur Verfügung gestellten Takten alle für die Anwendung benötigten internen Takte. Diese können gegenüber den Eingangstakten in der Phase verschoben sein und besitzen eine von dem jeweiligen Eingangstakt abgeleitete Frequenz. Taktverstärker sowie eine entsprechende Verschaltung sorgen dafür, dass jeder verwendete Takt überall im Chip synchron zur Verfügung steht. Moderne FPGAs besitzen typischerweise eine oder mehrere Phase-locked loops (PLL), mit denen sich rational gebrochene Taktunterteilungen/-vervielfachungen erzeugen lassen. Den gleichen Zweck erfüllen Delay-locked loops (DLL) und digital frequency synthesizer (DFS), die manche FPGA-Hersteller gegenüber der PLL bevorzugen.
  • In komplexen FPGAs sind zusätzliche fest verdrahtete Funktionen enthalten, wie z. B. Speicherblöcke (sog. Block RAM), die sich in vielfältiger Weise nutzen lassen.
  • Für Aufgaben der digitalen Signalverarbeitung wie bei digitalen Filtern sind in manchen FPGAs auch Multipliziereinheiten enthalten. Diese erlauben es, besonders schnell zwei Binärzahlen zu multiplizieren ohne dafür Logikzellen zu benötigen.
  • FPGAs, die im Bereich von System-on-a-Chip-Anwendung (SoC) finden, besitzen eine Reihe meist komplexer Hard-Cores, um ein komplettes System aufzunehmen. Hard-Cores sind feste und unveränderliche Schaltungen von meist komplexen Funktionsblöcken, wie beispielsweise Mikrocontroller oder Ethernetschnittstellen. Komplexe Hard-Cores belegen sehr viel weniger Chipfläche als es die gleiche Funktion, realisiert mit Logikblöcken, benötigen würde und sind typischerweise drei- bis viermal schneller als die frei konfigurierbare Logik der FPGA. Dafür sind diese Schaltungsteile nicht so flexibel und können in ihrer Funktion auch nicht mehr verändert werden.

Hersteller wie Xilinx bieten mittlerweile auch auf SRAM basierende FPGAs an, die bereits über im Chipgehäuse untergebrachten Flash-Speicher zur Konfiguration verfügen und keinen externen Flash-Speicher mehr benötigen. Man nennt solche integrierten Schaltungen mit mehreren Chips in einem Gehäuse auch Multi-Die. Die Lade- bzw. Startzeiten des FPGA bleiben im Vergleich zu externem Speicher in etwa gleich, sind allerdings speziell vom Hersteller optimiert. Ein weiterer Vorteil ist der Schutz vor unrechtmäßigen Kopien durch das Auslesen des extern befindlichen Speichers. Derzeit und auf absehbare Zeit ist es technologisch nicht möglich, die SRAM-basierten Schalterzellen in einem FPGA direkt wie bei den viel einfacheren CPLDs durch Flash- bzw. EEPROM-Zellen zu ersetzen.

Konfiguration[Bearbeiten]

Der Begriff der Programmierung ist in diesem Kontext anders zu verstehen als bei der Erstellung von Software für einen Prozessor: In einem FPGA werden Schaltungsstrukturen mittels Hardwarebeschreibungssprachen oder in Form von Schaltplänen erstellt und nachfolgend diese Daten als Konfiguration in den Baustein übertragen. Im FPGA werden dadurch bestimmte Schalterstellungen aktiviert bzw. deaktiviert, was dann eine konkret implementierte digitale Schaltung ergibt.

Die Programmierung der LUTs und der Verbindungsstrukturen erfolgt typischerweise einmal vor jedem Einsatz, wodurch der FPGA auf eine konkrete Funktion konfiguriert wird. Dies ist notwendig, da der FPGA durch Abschalten der Betriebsspannung seine Konfiguration wieder verliert. Im Einsatz steht dem FPGA deshalb meist eine Art EPROM zur Seite, der die Konfiguration vorhält und dessen Inhalt selbst auch aktualisierbar ist. Mehr und mehr wird auch eine regionale Umprogrammierung von einzelnen FPGA-Bereichen im laufenden Betrieb unterstützt.

Da die Funktion des FPGA ausschließlich durch die Konfiguration festgelegt wird, kann der gleiche Baustein für viele verschiedene Schaltungen und Anwendungen verwendet werden. Er kann deshalb in großen Stückzahlen produziert werden, was ihn bei Prototypen und Kleinserien sehr kostengünstig im Vergleich zu einer anwendungsspezifischen integrierten Schaltung (ASIC) macht. FPGAs sind dafür im Allgemeinen langsamer als ASICs und nicht beliebig tief bzw. kompliziert programmierbar. Die Tiefe der programmierbaren Logik ist von der Vorbereitung durch den Hersteller abhängig. Gemessen wird das an der Anzahl der logischen Komponenten, der I/O-Ports und der Flipflops, die sich in einem FPGA befinden.

Unterschiede zu CPLDs[Bearbeiten]

Oft werden FPGAs mit den digitalen und ebenfalls rekonfigurierbaren CPLD-Bausteinen (Complex Programmable Logic Devices) gleichgesetzt bzw. verglichen. Die wesentlichen Unterschiede zwischen FPGAs und CPLDs sind:

  • CPLDs weisen im Vergleich zu FPGAs eine wesentlich einfachere Struktur auf. Sie besitzen kein feinmaschiges Array (Feld) von Logikblöcken und FlipFlops, sondern nur eine konfigurierbare Schaltmatrix, die verschiedene Eingangssignale zu verschiedenen Ausgangssignalen verbinden kann. Die Signale können dabei durch logische Operationen wie AND/OR verknüpft werden. Dadurch haben CPLDs eine vom jeweiligen Design unabhängige, konstante Signaldurchlaufzeit. Durch entsprechende Designmethoden kann auch bei FPGAs eine definierte maximale Durchlaufzeit erreicht werden (engl. timing constraints).
  • CPLDs weisen vergleichsweise wenige FlipFlops auf. Vor allem längere Schieberegister, Zähler, Zustandsspeicher und ähnliche Schaltungen, die viele FlipFlops benötigen, sind in CPLDs nur ineffizient zu realisieren.
  • CPLDs besitzen, da jeder IO-Pin ein FlipFlop besitzt, meist sehr viele IO-Pins, die in vielen Anwendungen nur teilweise verwendet werden. In Anwendungen, in denen nur vergleichsweise einfache digitale Schaltungen, sogenannte glue logic, mit einem hohen Bedarf an IO-Pins Verwendung findet, sind CPLDs meist die bessere Wahl.
  • CPLDs können durch ihre einfache Struktur technologisch mit Flash-Zellen in den Schaltmatrizen arbeiten. Damit ist ein CPLD sofort nach dem Einschalten (engl. Power-Up) betriebsbereit, während rekonfigurierbare FPGAs mit SRAM-basierenden Zellen erst einen Ladezyklus für die Konfiguration durchlaufen müssen. Von einigen Herstellern gibt es aber seit längerem auch FPGAs in Flash-Technik. Seit Ende der 1990er Jahre ist bei den CPLDs eine Annäherung an die FPGA-SRAM-Technologie zu beobachten. Heute arbeiten die meisten CPLDs intern SRAM-basiert. Bei einigen CPLD-Familien besteht inzwischen das logische Grundelement aus dem FPGA-typischen LUT4-Flipflop-Verbund (Altera MAX II-Serie).
  • CPLDs weisen durch den einfacheren Aufbau und die geringere Größe auch einen wesentlich geringeren Stromverbrauch auf.

Entwurfsschritte und -werkzeuge[Bearbeiten]

Ein FPGA der Firma Xilinx

Erstellt wird die Konfiguration (Programmierung) eines FPGA entweder grafisch mit einem Schaltplan (engl. schematic) oder heute meist mittels einer Hardwarebeschreibungssprache, das sind primär VHDL oder Verilog, welche die gesamte Funktion der Schaltung in Form von Strukturen und Abläufen beschreibt. Ein sogenanntes Synthesewerkzeug erstellt dann aus diesen Daten für einen gewünschten Baustein eine spezifische Netzliste unter Nutzung der in diesem Baustein verfügbaren Ressourcen. Zuvor wird im Rahmen des Entwicklungsprozesses die Hardwarebeschreibung mittels Simulationswerkzeugen in ihrem Verhalten simuliert und optimiert. Ein dafür bekanntes Werkzeug ist ModelSIM.

Die im FPGA erforderlichen Ablaufsteuerungen wiederum lassen sich durch endliche Automaten darstellen. Der hardwarebeschreibende Code wird dann in einem Zwischenschritt automatisch erzeugt. Darüber hinaus lassen sich mit grafischen Programmiersystemen wie LabVIEW oder Matlab / Simulink oder dem kostenfreien Logiflash[1] ebenfalls Schaltungsmodule für ein FPGA automatisch erstellen.

In den letzten Jahren versuchten mehrere Projekte, Hardwareimplementierungen für ASICs, FPGAs und CPLDs mit der Programmiersprache C (HardwareC, HandelC, BachC) zu beschreiben. Aktuelle Ansätze bauen direkt auf den weit verbreiteten Standardsprachen ANSI C bzw. C++ oder Python (mit MyHDL[2]) auf. Für SystemC existieren keine Synthesetools, der praktische Nutzen für konkrete FPGA-Entwicklungen liegt bei der abstrakten Verhaltensmodellierung und deutlich beschleunigten Systemsimulationen, weshalb es dort zum weitverbreiteten Industriestandard avanciert ist. Es gibt auch High-Level Synthese-Werkzeuge, um aus Hochsprachen (C/C++, MATLAB, Java, Python, UML) einen Entwurf auf Registertransferebene (VHDL, Verilog) zu erzeugen. Beispiele sind Catapult C Synthesis von Mentor Graphics, CoDeveloper von Impulse Accelerated Technologies, Cynthesizer von Forte Design Systems oder das oben erwähnte freie MyHDL.

Herstellerspezifische Sprachen wie Altera-HDL (AHDL) oder auch die kaum noch verwendete Hardwarebeschreibungssprache ABEL wurden ebenso genutzt wie UDL/I (Japan).

Zur Implementierung eingebetteter Systeme in FPGAs gibt es mittlerweile Werkzeuge, die eine Konstruktion auf Funktionsblockebene anbieten, z. B. Xilinx EDK (Embedded Development Kit). Funktionsblöcke wie FIFOs, Prozessoren, serielle Schnittstellen, Ethernet-MAC-Layer, RAM-Controller, Parallel-IO etc. werden vom Hersteller zur Verfügung gestellt. Diese Funktionseinheiten, IP-Core genannt, liegen manchmal als Quellcode, oder meist als verschlüsselte Netzliste vor und sind in der Regel parametrisierbar (z. B. Baudrate bei seriellen asynchronen Schnittstellen oder Fifo-Tiefe oder Breite der Parallelschnittstelle). Diese werden über Busse mit anderen Funktionseinheiten verbunden.

Timing-Simulation einer digitalen Schaltung

Nach der Beschreibung innerhalb des Entwurfsflusses folgen weitere Schritte wie die funktionale Simulation, Synthese, die Implementierung (Place and Route) und laufzeitbasierende Simulation. Erst danach sollte die implementierte Schaltung am realen FPGA erprobt werden.

Die Programmierung der Logikbausteine kann je nach FPGA unterschiedlich gelöst werden. Man kann zwischen Methoden unterscheiden, die es ermöglichen, das FPGA mehrmals zu programmieren, und Methoden, die nur eine einmalige Programmierung zulassen. Bei den mehrmals programmierbaren FPGAs wird die Konfiguration in Speicherzellen (z. B. SRAM, EPROM, EEPROM, Flash) gespeichert. Bei den einmalig programmierbaren FPGAs werden die physikalischen Eigenschaften der Verbindungswege permanent geändert (Antifuse-Technologie). Diese Technologie bietet im Feld eine größere Sicherheit gegen äußere Störungen.

Für FPGAs wird beim Schaltungsentwurf ein synchrones Schaltungsdesign empfohlen, wenngleich nicht zwingend erforderlich. Das bedeutet: An allen Flipflops in einer so genannten Clock-Domain liegt der gleiche Takt. Gesteuert wird die Datenübernahme in ein Flipflop nur über die zusätzlich vorhandenen Clock Enable-Eingänge und nicht über geteilte Taktsignale (engl. gated clocks). Das vermeidet schwer handhabbare Laufzeiteffekte. Manche FPGAs bieten spezielle Taktumschalter an, die das garantiert störungsfreie Umschalten (glitch-frei) zwischen verschiedenen Taktquellen im Betrieb erlauben.

Anwendungsgebiete[Bearbeiten]

FPGAs haben in den letzten Jahren ihren Anwendungsbereich von der klassischen „Glue-Logic“, also der reinen Verbindungslogik zwischen verschiedenen digitalen Bausteinen, zunehmend erweitert und werden heute auch bei mittleren Stückzahlen für die Realisierung komplexer digitaler Schaltungen bis hin zu kompletten digitalen Systemen eingesetzt. Durch die Rekonfigurierbarkeit von FPGAs direkt beim Endanwender besteht darüber hinaus der wesentliche Vorteil, auf aktuelle technische Entwicklungen reagieren zu können und die digitalen Schaltungen durch Updates anpassen zu können, ohne direkt die zugrundeliegende Hardware der FPGA-Chips verändern zu müssen.

FPGAs werden beispielsweise zur Echtzeit-Verarbeitung von einfachen bis komplexen Algorithmen genutzt, zur digitalen Signalverarbeitung im Rahmen von digitalen Filtern oder zur schnellen Fourier-Transformation. Aber auch Protokoll-Implementierungen wie Teile des Ethernet-MAC-Layers, die Kodierung von digitalen Videosignalen, die Verschlüsselung von Daten und Fehlerkorrekturverfahren sind Anwendungsgebiete.

Besonders in Bereichen, in denen Algorithmen bzw. Protokolle einer schnellen Weiterentwicklung unterliegen, ist die Verwendung rekonfigurierbarer FPGAs statt ASICs angebracht. Die Vorteile sind schnelle Marktreife, nachfolgende Fehlerbehebungen, Anpassung an neue Entwicklungen.

Für einige Klassen von Rechenproblemen sind auch FPGA-basierte Parallelcomputer sehr geeignet. Das wahrscheinlich bekannteste Beispiel sind FPGA-Rechner zum Brechen kryptographischer Verfahren, wie dem Data Encryption Standard (DES). Der aus 120 FPGAs bestehende Parallelrechner COPACOBANA ist ein solcher Parallelcomputer zum Codebrechen.

Die inzwischen erreichte Anzahl von Logikblöcken erlaubt die Integration mehrerer eingebetteter Computersysteme in einen einzigen FPGA-Baustein inklusive CPU(s), Bussystem(en), RAM, ROM, RAM-Controller, Peripherie-Controller etc. Solche kompletten Systeme werden als System on a Chip (SoC) bezeichnet. Auf Grund ihrer Rekonfigurierbarkeit bilden die SRAM- und Flash-basierten FPGAs die Grundlage für rekonfigurierbare Computer.

Digitale Speicheroszilloskope werden oft mit FPGAs realisiert, da deren Stückzahlen meist zu gering sind, um einen ASIC für diesen Anwendungsfall zu entwerfen. Schnelle digitale Speicheroszilloskope verwenden pro Kanal mehrere A/D-Umsetzer parallel, welche das zu messende Signal phasenverschoben abtasten. Das erfordert ein sehr hohes Maß an paralleler Datenverarbeitung und -speicherung, für die FPGAs gut geeignet sind. Oszilloskope auf FPGA-Basis können beispielsweise auf sehr kurze Impulse unterhalb der Abtastrate der A/D-Umsetzern triggern oder dessen Aufkommen zählen. Ein Vorteil bei der Verwendung von FPGAs liegt generell auch darin, dass anders als bei DSPs verhältnismäßig geringe Entwicklungskosten bei Neuentwürfen entstehen, falls einer der verwendeten ICs nicht mehr erhältlich ist und dessen Funktion in einen existenten Baustein integriert werden kann.

FPGAs werden sehr häufig auch als Entwicklungsplattform für den digitalen Teil von ASICs verwendet, um die Funktion zu verifizieren. Das ist nötig, da aufgrund der Komplexität heutiger Schaltungen alleinige Simulationen zu zeitaufwändig wären.

Ein besonders auf FPGAs zugeschnittener Tochterkartenstandard ist die FPGA Mezzanine Card.

Geschichte[Bearbeiten]

FPGAs entwickelten sich Mitte der 1980er Jahre als eigener Teilbereich von Halbleiterbauelementen. Als Vorläufer der FPGAs kann entfernt die schaltungstechnische Kombination von Programmable Read-Only Memory (PROM) und programmierbare logische Schaltungen (englisch programmable logic device, PLD) betrachtet werden.[3] Die Kombination von reprogrammierbaren Speicherelementen zur Realisierung von logischen Verknüpfungen in Form eines "Array" auf einem Halbleiterchip wurde von David Westminster Page und LuVerne R. Peterson 1985 patentiert, aber nicht kommerziell umgesetzt.[4][5]

Der erste kommerziell verfügbare FPGA war der Baustein XC2064 welcher von Ross Freeman und Bernard Vonderschmitt, beides Gründer der Firma Xilinx, im Jahr 1985 entwickelt wurde.[6] Der XC2064 bestand aus 64 konfigurierbaren Logikblöcken, sogenannten Configurable Logic Block (CLB), mit einer Lookup-Tabelle (LUT) mit drei Eingängen. Die Logikblöcke sind in einer 8*8 Matrix (Array) angeordnet und konnten über schaltbare Verbindungsleitungen kontaktiert werden. Im Jahr 2009 wurde Freeman für die Entwicklung des ersten FPGAs in die US-amerikanische National Inventors Hall of Fame aufgenommen.[7]

Vergleiche[Bearbeiten]

Mikroprozessoren[Bearbeiten]

FPGAs bilden je nach Konfiguration beliebige Anordnungen digitaler Schaltungsfunktionen ab und bieten damit grundsätzlich die Möglichkeit, Informationen vollkommen parallel zu verarbeiten. So können die anfallenden Datenflüsse in Bandbreite und Informationstiefe optimal einander angepasst werden. Schnell zu erfassende Signale werden dabei oft voll parallel mit Kopien identischer Schaltkreise, langsamer auftretende Signale vermehrt zyklisch mit einem einzigen Schaltkreis und damit platzsparend verarbeitet.

Externe Prozessoren können dagegen mit wenig Hardware sehr komplexe und verschachtelte Programme sequentiell abarbeiten. Bei einem FPGA müsste für jede Operation ein eigenes Stück Hardware synthetisiert werden, wobei sich die eingeschränkte Anzahl an Logikgattern begrenzend auswirkt, zudem ist der Aufbau einer vergleichbar flexiblen Struktur äußerst schwierig und zeitaufwändig. Daher bedient man sich bei komplexeren Aufgaben einer sogenannten soft core CPU, die in das FPGA-Design eingebunden wird. Diese gleicht den externen CPUs und stellt eine standardisierte Struktur bereit, die in klassischer Weise in C programmiert werden. Heutige FPGAs sind teilweise so leistungsfähig, so dass man eine Vielzahl an 8-, 16- oder 32-Bit-CPU-Kernen integrieren kann, allerdings ist diese Nutzung von allgemeinen Ressourcen als Prozessor im Vergleich zu echten Prozessoren sehr teuer und stromaufwändig. Daher gibt es inzwischen FPGAs, die mehrere hardware-basierte CPU-Kerne (ARM-9, PowerPC) enthalten.

Single-Core-Prozessoren hingegen sind reine endliche Zustandsautomaten, die mit einer festgelegten Hardware auskommen müssen und ihr Programm sequentiell abarbeiten, woraus sich auch wesentliche Unterschiede in der Gestaltung bei der Implementierung von Algorithmen ergeben. Mikroprozessoren besitzen häufig eine fest vorgeschriebene Peripherie. Das ist Vor- und Nachteil zugleich. Einerseits muss die Peripherie nicht noch extra erzeugt werden, jedoch lässt sich diese in einem FPGA problemgerecht anpassen.

Moderne Prozessoren mit SIMD-Befehlen wie zum Beispiel der Intel i7-3930K verarbeiten bis zu 96 Gleitkomma-Befehle parallel (48 Additionen + 48 Multiplikationen), der erreichbare Durchsatz liegt bei 3,2 GHz bei theoretisch etwa 300 GFlops, von denen 250 GFlops bei praxisrelevanten Aufgaben erreichbar sind. Aktuelle FPGA können zehntausende Festkomma-Additionen (bis 48 bit) und tausende Festkomma-Multiplikationen (bis 18×25 bit) bei Taktfrequenzen von 500 MHz zur gleichen Zeit ausführen. Damit sind für Verarbeitungsaufgaben, die sich mit Festkommaarithmetik bearbeiten lassen, um den Faktor 2 bis 3 höhere Verarbeitungsleistung bei deutlich geringerer Leistungsaufnahme möglich.

Viele Veröffentlichungen aus unterschiedlichsten Anwendungsgebieten berichten über Migration einer Anwendung von Software nach Configware mit Beschleunigungsfaktoren von einer bis zu vier Größenordnungen. Deshalb finden FPGAs neuerdings Eingang beim Reconfigurable Computing.

ASICs[Bearbeiten]

Vorteile von FPGAs[Bearbeiten]

  • deutlich geringere Entwicklungskosten (im Gegensatz zu ASICs werden keine Masken mit sehr hohen Fixkosten benötigt)
  • sehr kurze Implementierungszeiten
  • einfach korrigier- und erweiterbar (rekonfigurierbar)
  • geprüftes Silizium
  • geringeres Designrisiko, da es nicht Monate vor der Hardwareauslieferung fertig sein muss

Nachteile von FPGAs[Bearbeiten]

  • ab mittleren Stückzahlen höherer Stückpreis (als ASICs)
  • geringere Taktraten (aktuell verfügbar bis 1,5 GHz, typisch werden 20–500 MHz realisiert; digitale ASICs bieten >3 GHz)
  • geringere Logikdichte (ca. 10-facher Flächenbedarf gegenüber ASIC gleicher Technologie)
  • deutlich höherer Leistungsbedarf für gleiche Menge an Logik bzw. Funktionen
  • höhere Empfindlichkeit gegenüber Teilchenstrahlung und elektromagnetischen Wellen (da über RAM-Zellen und nicht durch Hartverdrahtung programmiert)
  • geringere Flexibilität, was Ausstattung z. B. mit eingebettetem Speicher oder analogen Elementen angeht, aber auch bei IO-Buffern
  • der kürzere Designzyklus und die Möglichkeit, sehr spät noch Fehler korrigieren zu können, verleiten dazu, im Vorfeld weniger funktionale Tests durchzuführen.
  • SRAM-basierte FPGAs (das sind z. B. alle von den Marktführern Xilinx und Altera angebotenen) müssen bei jeder Spannungsunterbrechung neu geladen werden. Das bedeutet, dass die Funktionalität nicht direkt nach dem Einschalten zur Verfügung steht. Das Laden kann – je nach eingesetzter Technik – bis zu einigen Sekunden dauern. Handelt es sich nicht um spezielle FPGAs mit integriertem Flashspeicher, sind dazu zusätzliche, externe Komponenten notwendig, z. B. ein herstellerspezifisches EEPROM oder Flash-Speicher, das die Konfiguration enthält oder ein Mikrocontroller mit zusätzlichem Flash-Speicher, der den Ladevorgang durchführt.

Hersteller von FPGAs[Bearbeiten]

  • Xilinx – Marktführer
  • Altera – Anbieter eines Migrationspfads vom FPGA zu strukturierten ASICs
  • Lattice – Anbieter eines freien 32 Bit Open Source SoftCore-Prozessors sowie von GAL-Technik
  • Atmel – FPGAs, auch mit zusätzlich integriertem RAM und AVR-Mikrocontroller
  • Actel – Bausteine in FLASH-Technologie sowie strahlungsresistente Antifuse-FPGAs
  • QuickLogic – Anbieter von stromsparenden FPGAs
  • Aeroflex – strahlungsresistente FPGAs
  • SiliconBlue – stromsparende FPGAs
  • Achronix Semiconductor – sehr schnelle FPGAs (bis 1,5 GHz) in 22 nm
  • Abound Logic – stromsparende FPGAs mit hoher Logikdichte

Neben den bestehenden Anbietern haben im März 2010 zwei Firmen neuartige FPGAs angekündigt, die jeweils auf unterschiedliche Art eine dreidimensionale (3D) Architektur enthalten: Tabula[8] und TierLogic[9]. Während Tabula mehrere Silizium-Chips (Dice) übereinander in ein Chipgehäuse verpacken möchte, will TierLogic die SRAM-Zellen zur Konfiguration des FPGA aus der aktiven Siliziumfläche herausnehmen und stattdessen als Dünnschichttransistoren (TFT, thin-film transistors) oberhalb der aktiven Siliziumfläche aufbringen.

Weblinks[Bearbeiten]

 Commons: Field Programmable Gate Array – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise[Bearbeiten]

  1. Logiksimulator LogiFlash
  2. MyHDL
  3. History of FPGAs. Abgerufen am 11. Juli 2013.
  4. Patent US4508977: Re-programmable PLA. Veröffentlicht am 2. April 1985, Erfinder: David W. Page, LuVerne R. Peterson.
  5. Patent US4524430: Dynamic data re-programmable PLA. Veröffentlicht am 18. Juni 1985, Erfinder: David W. Page.
  6. Xilinx, ASIC vendors talk licensing. Abgerufen am 11. Juli 2013.
  7. National Inventors Hall of Fame, Ross Freeman. Abgerufen am 11. Juli 2013.
  8. Tabula FPGAs: this one could be game-changing Artikel in EDN vom 1. März 2010
  9. TierLogic lifts the veil: another take on the 3D FPGA Artikel in EDN vom 10. März 2010