Logo Logo
/// 

Kommen bald Monitore mit integrierter Grafikkarte?



Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Newsmeldung von slashCAM:




Angeblich will Apple schon bald mit einem 5K-Display inkl. Grafikkarten-Kern auf den Markt kommen. Und auch im PC-Bereich ist mit ähnlichen Lösungen zu rechnen.



Hier geht es zum slashCAM Artikel:
Editorials: Kommen bald Monitore mit integrierter Grafikkarte?




Antwort von leonhard dy kabrio:

Grundsätzlich ja..warum net..... aber...
Wir der Moni in irgend einer Form limitiert?
Wenn ich Gpu-rendering mache ( was bisher eher ein Reichensport war,
weil eine 800 Euro Grako und schön sehr gut und teuer kühlen, so auch
immer unter Vollast rennt. Jetz wo Nvida/ Amd wieder mal den Hintern heben
wird es in den mittleren Preisregionen interessanter, und wenn ein INtelchip
130-1500 Flocken kost, zwei 250 euro Grakos das aber auch rennen..logisch.)
kann ich zb zwei sind im Rechner und die im Moni ist mit7seriel/ paralle etzerraa...

Aber, ich wittere da eine neue Ränke um den Leuten am Ende die Börse leer zu
fegen. zb. " gucks du superheftig gutes thunderbold6 is wie suuperheftig schnelles
usb 4.0 aber net mit die hybsche lichte und die Swarovskisteine d da daaa.."

Wir sind technisch im Jahr 2013+ mit Werbeverlääääängerung des elektophotonischen Schwellkörpers :)



Antwort von TonBild:

Immerhin besteht bei einem großen Monitor mit integrierter Grafikkarte die Möglichkeit einer passiven Kühlung mit Kühlrippen. Genug Fläche steht ja auf der Rückseite des Monitors oder am Ständer zur Verfügung.








Antwort von Rick SSon:

Hm. So Monitore bekommen je nach Stellplatz auch gern mal Sonne von hinten ab. So ein Panel bleibt auch nicht zwangsläufig kühl. Designtechnisch liegt die Graka wohl auch in der Mitte des Panels, damit der Gerät zu den Rändern schmaler werden kann. Schließlich isst bei Apple bekanntermaßen das Auge zuerst, dann die Finger und zuletzt gibts Energie fürs Rechenzentrum.

Fraglich wie stabil sowas mit potenter Hardware am schönen Fensterplatz laufen wird.



Antwort von Frank Glencairn:

Nieschenprodukt für Leute die nur einen schwachbrüstigen Laptop zum Arbeiten haben.

Der größte Nachteil dürfte sein, daß man die GPU nicht mal schnell gegen die nächst bessere austauschen kann.



Antwort von WoWu:

Wenn Wärme das einzige Problem wäre.
Seit 1.4.2012 dürfen TV Geräte und Monitore nur 16W+A*3,4578w/dm2 an Leistung aufnehmen.
Das ist gerade auch das Problem bei HDR Geräten, dass sie bei hohen Weissanteilen die Leuchtdichte runter fahren.
Welcher Hersteller holt sich da so einen Heizofen in den Monitor, der die Leistung auch noch zu 80% in Wärme umsetzt?



Antwort von TheBubble:

Der größte Nachteil dürfte sein, daß man die GPU nicht mal schnell gegen die nächst bessere austauschen kann. Man kann schon, aber nur zusammen mit dem Display. Für die Verläufer wäre das ein Umsatz-Vorteil: Neue Grafikkarte nur im Paket mit neuem Display!

Ich befürchte, es gibt genug technisch uninteressierte (dafür aber finanzkräftige) Kunden, die das klaglos mitmachen würden...



Antwort von pixler:

Bei mir hält ein Monitor im Schnitt 10-12 Jahre....

...in dieser Zeit wird er von schätzungsweise 3-4 Generationen Grafikkarten angesteuert. Es würde mich nicht wundern, wenn die integration von GPU's in Monitore langfristig Schule machen würde.....um mehr Monitore verkaufen zu können...



Antwort von thyl:

Nieschenprodukt für Leute die nur einen schwachbrüstigen Laptop zum Arbeiten haben.

Der größte Nachteil dürfte sein, daß man die GPU nicht mal schnell gegen die nächst bessere austauschen kann. Es sei denn, das wird per üblichem PCIe-Steckplatz realisiert. Aber das nimmt vermutlich niemand ernsthaft an. :-(



Antwort von thyl:

Besser wäre es, endlich externe GPUs zu gestatten. Das verhindert derzeit ja wohl Intel. Könnte nicht nur für schwachbrüstige Laptops interessant sein, sondern sogar für Desktop-Rechner mit Thunderbolt, aber ohne interne (oder mit belegten) Steckplätzen.

Es könnte funktionieren, die PCIe-Schnittstelle scheint oft nicht voll ausgenutzt zu werden, offensichtlich ist die Datenmenge gar nicht so hoch, wegen des hohen Abstraktionsgrads der Daten und der hohen internen Rechenleistung heutiger Karten.

Aber ich muss sagen, ich glaub da nicht dran.



Antwort von DenK:

Gerade jetzt wo wir die flachsten Flachbildschirme aller Zeiten haben, baut man hinten ein paar potente GPUs ein... wers mag.
Für mich kommt sowas genauso wenig in Frage wie der neue MacPro. Ich will maximale Funktionilaität und Erweiterbarkeit, und mich nicht vollkommen unnötig selbst limitieren. Deswegen bleibe Ich gerne beim riesigen BigTower, da ist auch genug Platz für Kühlung und 8 Festplatten + 2 Grafikkarten wenns denn sein muss.

Ich kann mir auch nicht wirklich ein Szenario vorstellen wo Ich das gebrauchen könnte. Entweder Ich bereite Dinge vor, Schreibe Texte, Sichte etc, was man eben mit dem Laptop machen kann. Oder Ich Schneide bzw. arbeite im AE, dann aber bitteschön mit richtig Power, die auch ein teurer Laptop mit guter CPU in der Regel nicht hergibt.




Noch was unklar? Dann in unserem Forum nachfragen
Zum Original-Thread / Zum Artikel-Fragen-Forum

Antworten zu ähnlichen Fragen:
AMD Radeon Pro SSG Grafikkarte mit integrierter 2TB SSD für 7.000 Dollar
Philips 326P1H und Philips 329P1H: Neue 31.5" Monitore mit integrierter USB-C Dockingstation
GoPro Hero 6 soll am 28. September kommen mit 4K mit 60p
Philips 346B1: Curved 34" Monitor mit integrierter USB-C Dockingstation
AnkerWork PowerConf C300 - Smarte HD-Webcam mit integrierter KI-Unterstützung
Intels nächste CPU kommt mit integrierter AMD GPU!
DJI Osmo Pocket: Mini-Einhand-Gimbal mit integrierter Kamera
Huawei P10 Smartphone mit integrierter GoPro Quik Videoschnitt App
Eizo ColorEdge CG319X DCI 4K 31.1" Monitor mit integrierter Farbkalibrierung // NAB 2018
smallHD Cine 7: 1.800 nits heller 7" Monitor mit integrierter ARRI-Kamerasteuerung // NAB 2019
DJI patentiert Fernsteuerauto mit Kamera und neuen Gimbal - kommen sie 2020?
Western Digital Black D50 Game Dock: Thunderbolt 3 Dock mit integrierter NVMe SSD
Intel Core i7-8809G: technische Details zur Intel CPU mit integrierter AMD Vega GPU
VLC Player bald mit Chromecast Support
Resolve mit einer Grafikkarte?
Grafikkarte mit TV-Eingang (Antennenkabel)
Suche Grafikkarte mit gutem TV-Out...
Magic Lantern bald mit 10/12 Bit RAW-Aufzeichung?
Besser Rendern mit neuer Grafikkarte?!?!
Suche Dual-Head Grafikkarte (mit 2 x Videoausgang!)
Grafikkarte mit Videoeingang und externe TV-Box
Grafikkarte mit S-VHS Augang an Chinch anschließen
Bald ist schluss mit Netflix, Prime und co. Disney+ kommt
Monitore mit DisplayPort 2.0 verspäten sich stark
10 neue Monitore mit 21.5" bis 34" von AOC
Ich suche eine vernünftige Grafikkarte mit TV Ausgang

















weitere Themen:
Spezialthemen


16:9
3D
4K
AI
ARD
ARTE
AVCHD
AVI
Adapter
Adobe After Effects
Adobe Premiere Pro
After effects
Akku
Akkus
Apple Final Cut Pro
Audio
Aufnahme
Aufnahmen
Avid
Avid Media Composer
Band
Bild
Bit
Blackmagic
Blackmagic DaVinci Resolve
Blackmagic Design DaVinci Resolve
Blende
Book
Brennen
Cam
Camcorder
Camera
Canon
Canon EOS
Canon EOS 5D MKII
Canon EOS C300
Capture
Capturing
Cinema
Clip
ClipKanal
Clips
Codec
Codecs
DSLR
Datei
Digital
EDIUS
ENG
EOS
Effect
Effekt
Effekte
Euro
Export
Fehler
Festplatte
File
Film
Filme
Filmen
Filter
Final Cut
Final Cut Pro
Format
Formate
Foto
Frage
Frame
GoPro
Grass Valley Edius
HDMI
HDR
Hilfe
Import
JVC
KI
Kabel
Kamera
Kanal
Kauf
Kaufe
Kaufen
Kurzfilm
Layer
Licht
Light
Live
Lösung
MAGIX video deLuxe
MPEG
MPEG-2
MPEG2
Mac
Magix
Magix Vegas Pro
Menü
Mikro
Mikrofon
Mikrophone
Monitor
Movie
Musik
Musikvideo
NAB
Nero
News
Nikon
Objektiv
Objektive
PC
Panasonic
Panasonic GH2
Panasonic HC-X1
Panasonic S1 mit V-Log
Panasonic S5
Pinnacle
Pinnacle Studio
Player
Plugin
Plugins
Premiere
Projekt
RAW
RED
Recorder
Red
Render
Rendern
Schnitt
Software
Sony
Sony HDR
Sound
Speicher
Stativ
Stative
Streaming
Studio
TV
Test
Titel
Ton
USB
Umwandeln
Update
Vegas
Video
Video-DSLR
Videos
Videoschnitt
Windows
YouTube
Zoom