Wie es aussieht, stehen sowohl bei AMD als auch bei Nvidia neue Dual-GPUs in den Startlöchern. Bei AMD weniger überraschend, als bei Nvidia, denn AMD hatte bereits zur Fury-Vorstellung angekündigt, dass im Herbst ein Dual Board mit den aktuellen Grafikchips auf den Markt kommen wird. Nachdem bei AMD der HBM-Speicher mehr oder weniger fest mit dem GPU-Die verbunden ist, stehen die Rahmendaten eigentlich auch schon mehr oder weniger fest:
Mehr als 2 x 4 GB Speicher werden nicht möglich sein. Und weniger werden es sicherlich nicht werden. Die Rechenleistung dürfte sich um die 15 TFlops-Marke drehen (Maximal wären ca. 17 TFlops möglich). Und der Stomverbrauch dürfte zwischen 350 und 500W liegen. Dazu scheint eine Wasserkühlung wieder sehr wahrscheinlich. Als Einführungspreis schätzt die Gerüchteküche ca. 1.000 Dollar. Vielleicht aber auch noch 100 Dollar mehr.
Spannender wird es noch bei Nvidia, die noch nichts konkretes angekündigt haben, aber ein paar Journalisten unter NDA schon mit Information und Demo-Boards bestückt haben sollen. Angeblich will man hier AMD mit einer Veröffentlichung zuvor kommen und diese soll “unmittelbar” bevorstehen.
// Top-News auf einen Blick:
Verbaut werden sicherlich zwei GM200 Chips, die eine theoretische Rechenleistung von 11,2 TFlops liefern könnten. Um jedoch in einem vernünftigen Energierahmen zu bleiben, werden die Chips wohl wieder etwas gedrosselt, was die Karte dann wahrscheinlich knapp unter 10 TFlops landen lässt. Dafür wird Nvidia höchstwahrscheinlich bei einer Luftkühlung bleiben und gegenüber AMD auch HDMI 2.0 Output bieten.
Wer nicht jetzt und hier zwingend so viel Leistung in einem PCI-Slot benötigt (immerhin spart man hiermit viele PCI-Lanes) darf im Frühsommer dann wahrscheinlich schon Nvidias Pascal mit HBM-Speicher begrüßen. Gerüchteweise soll hierbei der minimale HBM-Speicherausbau für Consumer-Karten schon bei unglaublichen 16 GB landen. Und die verdoppelte Transistoranzahl in deutlich kleinerer Strukturbreite wird wahrscheinlich dann ca. 10 TFlops mit einer einzelnen GPU möglich machen. Wenn nur CPUs auch solche Sprünge machen würden...