Herzlich Willkommen, lieber Gast!
  Sie befinden sich hier:

  Forum » C / C++ (ANSI-Standard) » GPU statt CPU nutzen (zum rechnen)

Forum | Hilfe | Team | Links | Impressum | > Suche < | Mitglieder | Registrieren | Einloggen
  Quicklinks: MSDN-Online || STL || clib Reference Grundlagen || Literatur || E-Books || Zubehör || > F.A.Q. < || Downloads   

Autor Thread - Seiten: > 1 <
000
23.07.2005, 22:56 Uhr
~phi
Gast


Hi,
ich weiss nicht genau, in welches Thema der Eintrag gehöhrt...
Ist es möglich mit C++ auch die Grafikkarte rechnen zu lassen, anstatt die CPU, sagen wir ich will 1+3 addieren, dass soll nun die GPU und nicht die CPU tun... Oder ist sowas nur mit Assembler, wenn überhaupt möglich?
Danke!!!
 
Profil || Private Message || Suche Download || Zitatantwort || Editieren || Löschen || IP
001
24.07.2005, 09:15 Uhr
(un)wissender
Niveauwart


Erstmal gar nicht, da du die GraKar nur über das Treiberinterface ansprichst. Allerdings können Shader auch (oder gerade) rechnen. Sie lassen sich meines Wissen aber nicht nutzen, um die CPU zu ersetzen.
--
Wer früher stirbt ist länger tot.
 
Profil || Private Message || Suche Download || Zitatantwort || Editieren || Löschen || IP
002
24.07.2005, 10:32 Uhr
Bruder Leif
dances with systems
(Operator)


Da lob ich mir den guten alten C64. Selbst die Floppy war eigentlich ein kompletter Computer, dem man mal eben ein paar Aufgaben geben konnte... *nostalgie* *snif*
--
Mit 40 Fieber sitzt man nicht mehr vor dem PC.
Man liegt im Bett.
Mit dem Notebook.
 
Profil || Private Message || Suche Download || Zitatantwort || Editieren || Löschen || IP
003
24.07.2005, 18:07 Uhr
~phi
Gast


Danke für die Antworten!!
Naja, könnte man nicht die Aufgabe in einen Shader "verpacken"?
 
Profil || Private Message || Suche Download || Zitatantwort || Editieren || Löschen || IP
Seiten: > 1 <     [ C / C++ (ANSI-Standard) ]  


ThWBoard 2.73 FloSoft-Edition
© by Paul Baecher & Felix Gonschorek (www.thwboard.de)

Anpassungen des Forums
© by Flo-Soft (www.flo-soft.de)

Sie sind Besucher: