#1 10. Februar 2009 hey system: 6800 gt und einen p3 mit 600mhz mit passendem zubehör zum p3 die frage ist , ob ich die gpu der cpu als unterstützung zur verfügung stellen kann? oder gibt es eine andere möglichkeit, die leistung der grafikkarte für die gesamtgeschwindigkeit des rechners zu nutzen? der rechner soll als server dienen. mfg + Multi-Zitat Zitieren
#2 10. Februar 2009 AW: grafikkarte zu cpu? im grunde genommen ja, aber... nicht mit jeder hardware und auch nicht mal eben so General-Purpose Graphics Processing Unit nennt sich das ganze, kannst du mal googel aber ich denke nicht das es für deinen fall was bringt weil es da ein paar grundvorassetzungn gibt die du (denke ich ) nicht erfüllen kannstwwie zB: aktuelle Grafikkarte Shadermodell 3.0 Software die mit GPU-Unterstützung läuft (Folding@Home kann das bringt dir aber nichts) google mal das CUDA oder TMPGEnc Xpress mit CUDA-Support + Multi-Zitat Zitieren
#3 10. Februar 2009 Zuletzt von einem Moderator bearbeitet: 14. April 2017 AW: grafikkarte zu cpu? {img-src: http://media.bestofmicro.com/4/G/109024/original/004.png} spricht für sich oder? noch ein paar ergebnisse: Für die Bearbeitung eines Bildes mit einer Auflösung von 2048 x 2048 Pixeln erhält man folgende Ergebnisse: * CPU, ein Thread: 1419 ms * CPU, zwei Threads: 749 ms * CPU, vier Threads: 593 ms * GPU (8600M GT), Blocks mit 256 Pixeln: 109 ms * GPU (8600M GT), Blocks mit 128 Pixeln: 94 ms * GPU (8800 GTX), Blocks mit 128 Pixeln/256 Pixeln: 31 ms Quelle: Performance - Nvidia Cuda: Das Ende der CPU? ich denke das lohnt sich schon. die frage ist , wie das realisierbar ist für gpgpu benötigt man standartmäßig eine aktuelle grafikkarte doch wie ich dem text entnahm gab es bereits 1990 erste anwendungen. da gab es sader 3.0 noch nicht anscheint gibt es eine beta selbst für notebooks.. ich denke dann sollte es auch eine 6800 gt schaffen (btw wurde in dem test s.abb.o. ebendfalls eine 6800 ultra sowie 2 ältere modelle getestet ) hm ... allerdings habe ich diesen treiber noch nciht gefunden mfg kann ich die source iwo einfügen sodass sie von windows genutzt werden kann ? ich kenn mich nämlich mit c++ nciht wirklich aus.. edit: oder habe ich das prinzip völlig missverstanden? + Multi-Zitat Zitieren
#5 11. Februar 2009 AW: grafikkarte zu cpu? klar die die GPUs flott bei Bildbe/-verarbeitung sind, dafür sind se ja auch gebaut^^ nen C++ Source irgendwo einfügen sodass Win den benutzen kann, geht nich so einfach. Man müsste dann ne art Treiber coden, der Threads die eigentlich für die CPU gedacht sind auf die GPU umleiten, aber den Thread die CPU "vorgauckeln"... (das währe evtl n Lösungsansatz für die Hardcore Coder xD) So gut kenn ich mich da jetzt auch nich aus aber mal ebend nen Source hier oder da einfügen geht nich^^ Am besten googleste mal nach den Stichworten vom 1. Poster oder du machst es dir einfach und besorgst dir ne flottere CPU. Wenn du auf dem Server keine aufwendigen Sachen hosten willst, brauchst du auch keine wirklich große Rechneleistung Beim Fileserver zum beispiel, wo vielleicht 2 oder 3 Leute gleichzeitig drauf zugreifen müsste nen einfacher PC reichen. + Multi-Zitat Zitieren
#6 11. Februar 2009 AW: grafikkarte zu cpu? Nein. Cuda gibts erst ab 8x Modellen. + Multi-Zitat Zitieren
#7 12. Februar 2009 AW: grafikkarte zu cpu? okay das mit dem thread hört sich interessant an hm .. damit könnte man es quasi schaffen die basics wie os+treiber+etc über die cpu laufen zu lassen .. zusätzliche aufgaben dann aber von der grafikkarte, das hört sich doch mal interessant an btw wenn cudy nur mit modellen der 8-serie funktioniert , woher stammen dann die ergebnisse mit den älteren modellen? + Multi-Zitat Zitieren
#8 12. Februar 2009 AW: grafikkarte zu cpu? entweder mit nem anderen Programm das speziell für die Benchmarks entwicklet wurde und nie veröffntlicht wurde, oder Interpoliert + Multi-Zitat Zitieren
#9 12. Februar 2009 AW: grafikkarte zu cpu? Das ist einfach ein Diagramm, welches die Leistung zeigt. Dies heißt aber nicht, dass du darauf direkt zugreifen kannst. Zudem heißt das ganze CUDA (nicht cudy). Du kannst auch nicht JEDE zusätzliche aufgabe damit rechnen, weil es nicht immer Sinn macht, die Grafikkarte zu nutzen. Ein Rechner hat nicht ohne grund eine GPU und eine CPU und nicht 2x GPU + Multi-Zitat Zitieren