102222+ Records

Jeden Monat steigt die Menge der erfassten Daten. Immer mehr Sensoren, immer mehr Systeme senden Daten an zentrale Server. Mit der wachsenden Datenmenge wächst auch die Erwartung des Managements qualifizierte Aussagen und Handlungsanweisungen zu erhalten.

Die letzte Revolution in der Datenbankwelt ist inzwischen viele Jahre her. In-Memory hat viel versprochen und auch viel gehalten. Sie hat uns eine Performancesteigerung von Faktor 1000 gebracht. Aber seitdem folgt der Zuwachs wieder dem Moorschen Gesetz.

Die Daten und die Dimensionen ihrer Relationen nehmen jedoch in viel höherem Maße zu als nur einer Verdopplung in 1,5 Jahren.

Faktor 1000+ mit FPGA

Der Flaschenhals in der klassischen von-Neumann-Architektur ist die Busbreite zwischen CPU und Speicher. Selbst im günstigsten Fall kann ein Server mit einer Multicore-CPU nicht mehr als ein Record pro Takt abarbeiten.

Mit Field Programmable Gate Arrays sind – je nach Datenstruktur – mehrere tausend Operationen pro Takt möglich. Und obwohl FPGAs nur einen Teil der Taktfrequenz bieten sind sie im permanenten Betrieb mehr als 1000 x schneller als klassische Systeme.

Einfachste Abfragen in SQL oder XQuery können bereits mit einem einzelnen FPGA um Faktor 1000 beschleunigt werden. Die volle Kraft können die FPGAs jedoch ausspielen, wenn Abfragen kaskadiert werden müssen. Dabei werden die Ergebnisse einer Abfrage an den nächsten FPGA weitergeleitet und auf diesem läuft dann der nächste Filter.