X
Kommentare zu:

Gründer von id Software hält nicht viel von PhysX

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] Dr-Gimpfen am 26.08. 10:31
ich halt nicht viel von von der Aussage und jetzt ?!
[re:1] k1rk am 26.08. 10:36
@Dr-Gimpfen: naja deine meinung wird in der spiele branche sicher auch so hoch gehandelt wie die von branchen guru carmack.
[re:2] FlatFlow am 26.08. 10:36
+9 -4
@Dr-Gimpfen: John Carmack ist auf seinem Gebiet eine 1+ was deine Kompetenz angeht, möge jeder selber entschieden, aber viel auf dem Kasten kannst du nicht haben... mfg
[re:3] Dr-Gimpfen am 26.08. 10:38
+3 -6
@FlatFlow: naja er macht irgend ne random aussage die nicht wirklich von bedeutung ist. ausserdem siehe [o3]
[re:4] CampLazlo am 26.08. 10:51
+3 -3
@Dr-Gimpfen: du hast nicht viel zu kamelle jung! john carmack is god.
[re:5] DOCa Cola am 26.08. 11:23
+1 -
@Dr-Gimpfen: es wäre zumindest interessant gewesen eine begründung zu lesen, statt nur, dass er 'nichts davon hält' :)
[re:6] Not-Aus am 26.08. 12:17
+1 -
@Dr-Gimpfen: Tjoah also wenn ich ehrlich bin, weiß ich jetzt auch nicht so genau, was es für uns bedeuten soll, daß PhysX nicht gemocht wird...
[o2] LoD14 am 26.08. 10:36
+ -
naja, würd ich auch sagen, wenn ich auf die havok setzen würde. wobei es ist schon dämlich, dass man für physix 2 grakas braucht. dann lieber ne reihe von grakas bringen die 50 taken teurer sind und nen coprozessor für physik drauf.
[re:1] wolver1n am 26.08. 10:39
+ -
@LoD14: 2 ? also bei mir arbeitet es auch mit einer kommt mir zumindest so vor zb in mirror's edge
[re:2] pcfan am 26.08. 10:39
+ -
@LoD14: Man braucht keine zweite Graka, es geht auch mit einer. Aber wenn man zwei hat, kann eine nur die Physik berechnen, was effektiver ist!
[re:3] cathal am 26.08. 10:40
+ -
@LoD14: Eine Karte reicht, eine zweite brauchst du nur wenn du eine Karte allen für Physx nutzen willst, ist ja auch irgendwie Logisch.
[re:4] Slurp am 26.08. 10:40
+ -
@LoD14: Vor allem, da die Havok schon jahrelang in vielen Bereichn (nicht nur Spiele wie Half Life 2 oder F.E.A.R., sondern auch Beispielsweise Autodesk oder Maya) in Betrieb ist, stetig ausgebaut wird und meines Wissens nach modular aufgebaut ist. In meinen Augen ist diese Verbreitung ein ganz klarer Vorteil, weil man halt weiß, womit man es zu tun hat.
[re:5] darius_ am 26.08. 11:17
+ -
@LoD14: ist doch völlig egal. diese Sonderlösungen für den Privat-Gebrauch sind eh nur Marketing. War früher ein Thema bei Single Core CPU und kleinen Bandbreiten. Heute ? Multicore.... Da wird verzweifelt darüber nachgedacht wie die Kerne genutzt werden können, sollen, wollen...weils eben im Privatbereich nicht soviel Ansatzpunkte gibt. Ist so. Punkt.
[re:6] neorayzor am 26.08. 11:58
+ -
@Slurp: und alle die Havok Favorisieren: Havok ist mit PhysX nicht zu vergleichen, da Soft- und nicht Hardwarebasierend.
[o3] ox_eye am 26.08. 10:37
+12 -
John Carmack hat damals gesagt, daß die Voodoo Karten die Zukunft wären und der Rest nur "billig" Karten. Desweiteren hat er gesagt, daß DirectX Müll sei und keine Zukunft hätte. John Carmack ist ein 1A Kenner keine Frage, aber manchmal auch ein wenig gegen das, wo er nicht mitwerkelt. Und nur weil er John Carmack heisst es nicht, daß er recht hat.
[re:1] Dr-Gimpfen am 26.08. 10:39
+ -
@ox_eye: wenn ja scheint er ja nicht viel ahnung zu haben von hardwaretrends
[re:2] nicestar am 26.08. 10:39
+1 -
@ox_eye:
Ronaldo war auch unverkäuflich ..
[re:3] wolver1n am 26.08. 10:40
+1 -
@ox_eye: die aussage hatte auch 4 Jahre bestand von der voodoo 1 bis zur voodoo 3
[re:4] Smillie am 26.08. 10:40
+ -
@ox_eye: VooDoo Karten waren genial... R.I.P. 3dfx
[re:5] LoD14 am 26.08. 10:43
+2 -1
@ox_eye: openGL bzw Glide (was ja im grunde nur ein vereinfachtes openGL auf mehr oder weniger Hardwareebene war) seinerzeit waren einfach unschlagbar. der niedergang von 3DFx hat leider auch mehr oder weniger den niedergang dieser Schnittstellen mitbesiegelt. Performancetechnisch war eine Voodoo mit Glide einfach unschlagbar, was das für rechenleistung vom CPU genommen hat. Technologisch war 3DFx weiter und besser als die anderen, sie haben sich nur die scheiß firmenpolitik kaputt gemacht. sowas kann carmack nicht ahnen.
[re:6] ox_eye am 26.08. 10:44
+ -
@nicestar: eben, deshalb ist es manchmal besser nicht ganz so große Sprüche zu klopfen. Aber andererseits kann John natürlich auch nicht in die Zukunft gucken. Und solche Sprüche bringen natürlich auch Schwung ins Geschäft.
[re:7] Arhey am 26.08. 10:49
+ -
@ox_eye: Naja mit Voodoo hatte er nicht ganz unrecht. Wurde später von nvidia aufgekauft also kann man die Aussage schon so stehen lassen. Das mit DirectX war auch lange Zeit danach noch so. OpenGL war damals überlegen. Kann sich natürlich auch hier anders entwickeln, aber für jetzigen Moment hat er schon recht.
[re:8] ox_eye am 26.08. 11:09
+ -
@ox_eye: Wo wir gerade beo Voodoo sind, guckt mal hier. Das waren noch Zeiten http://tinyurl.com/n9nwd7
[re:9] Ronny@Home am 26.08. 11:25
+ -
@ox_eye: Er hat gemeint, daß die Voodoo-Technik besser wäre, war sie ja auch. Und daß OpenGL unter Windows nicht mehr besser ist als DirectX, hast du Microsofts Arroganz zu verdanken, ihr Betriebssystem als einizige Spieleplattform zu vermarkten.
[re:10] besn am 26.08. 11:37
+ -2
"John Carmack ist ein 1A Kenner keine Frage, aber manchmal auch ein wenig gegen das, wo er nicht mitwerkelt." @ox_eye: Ich seh das eher so das er nichts in die Hand nimmt das ihn selbst nicht überzeugt. Voodoo waren die Zukunft (den Deal mit Nvidia konnte ja keiner vorraussehen) und DirectX IST Müll :)
[re:11] tomsan am 26.08. 11:41
+ -
@ox_eye: Naja.... recht hatte er. Aber der Markt entwickelt sich nicht unbedingt nach Logik und Fairness. VHS war zB schlecher als BETA und Video2000, trotzdem "Gewinner". Und auf DirectX setzt Carmack ja noch immer nicht.... programmieren sie nicht OpenGL?
[re:12] njinok am 26.08. 12:28
+ -
@tomsan: OpenGL und DirectX 9 im Moment (Tech 5).
[re:13] WemmZi am 26.08. 13:17
+ -
id Software sollte lieber bei OpenGL und OpenAL bleiben. DirectX ist das Mittel, mit dem MS die Kunden dazu zwingt Windows zu kaufen. Jeder hat zwar das Recht ein anderes OS zu verwenden, aber wenn man mit seinem Rechner wirklich spielen will, dann braucht man Windows. (Von Emulatoren, VMs und den wenigen Ausnahmen mal abgesehen.)
[re:14] BEnBArka am 26.08. 13:54
+ -
@besn: mal etwas Geschichte hier. Ist ja unglaublich was da zusammen gelabert wird :) 3DFX war mit Vodoo 1 & 2 sehr erfolgreich am Markt aber bereit 1998 brachte Nvidia die RivaTnT die mehr als nur mithalten konnte und sogar eine 2D/3D Lösung war. Im gleiche Zeitraum passierte so einiges, so wurde von Sega einseitig die Aufkündigung des Grafichips für den Sega Saturn gemacht. 98 führte MS DirectX ein. Ende 1998 machte 3DFX aber den größten Fehler. sieh kauften den ehemaligen Grafikartehersteller STB-System um eigene Karten Produzieren zu können und stellten gleichzeitg den Verkauf an Drittanbieter ein. Ab der Vodoo 3 Generation waren ATi und Nvidia Karten meist schon einen Tick schneller und/oder Günsitger. Stagnierende Verkäufe zu hohe Belastungen das alles brach dann 2000 3DFX das Genkick, wo es hinführte kennen wir ja alle :)
[re:15] LoD14 am 26.08. 15:06
+ -
@BEnBArka: die TNT2 war der Voodoo 3 immer noch unterlegen. das problem war, das nvidia sich stark auf den OEM markt konzentriert hatte, den 3DFx garnicht beachtete. somit nvidia mehr absetze. und das weitere problem war, dass der produktzyklus von nvidia kürzer war und 3dfx nicht hinterher kam. die GeForce 256 kam zu schnell für 3dfx und durch das T&L war sie einfach viel schnell als die voodoos.
[re:16] Narf! am 26.08. 22:09
+ -
@Smillie: Ohne Witz, die Voodoos waren schon pervers geil :D Hatte auch von Serie 1, 2 und 3 jeweils eine. ~seufz~
[o4] Smillie am 26.08. 10:38
+ -
Eine gute Exit Strategie gehört in jeden Businessplan. Haben die Gründer von Ageia wohl alles richtig gemacht :)
[o5] bluewater am 26.08. 10:41
+2 -2
Hab nur ich einen Dejavu?!
[re:1] eraserhead am 26.08. 11:11
+1 -
@bluewater: ne ich auch. Die Meldung ist mindestens 1 Jahr alt (es sei denn er hat das gleiche jetzt noch mal gesagt). Kann man die Ageia-Karten überhaupt noch kaufen? EDIT: Habe es gefunden, von März 2008: http://tinyurl.com/kjz2vh
[o6] Rektalgnom am 26.08. 10:42
+2 -
Früher oder später wird Physx einer Schnittstelle unter DirectX weichen müssen, so dass hardwarebeschleunigte Physik-Effekte allen zugute kommen und man nicht gezwungen ist auf nur einen Hersteller zu setzen.
[re:1] SunBlack am 26.08. 10:47
+ -
@Rektalgnom: Ich hoffe erst einmal das Nvidia PhysX auf OpenCL-Basis bei den neuen Karten DX11 stellt. Denn wenn die das nicht machen wird es nie einen richtigen Durchbruch von PhysX geben, da ATI und Intel-GPUs nicht supported werden (ok Intel-GPUs zu unterstützten bringt noch nicht all zuviel :) )
[re:2] cathal am 26.08. 10:50
+ -
@Rektalgnom: Keine Frage, Nvidia hat CUDA ja schon in DirectX 11 integriert. ATI wird folgen und dann haben wir DirectX11 als Standart. John Carmack hat, wenn man andere News liestaber weniger schmerzen mit der Herstellerbindung als mit der Sache selbst Daher wird er auch gegen Physik in irgendeiner Karte mosern weil es für ihn Arbeit ist das zu Unterstützen und er sich dafür mal intensiv mit Parallelisierung auseinandersetzen müsste.
[re:3] DennisMoore am 26.08. 11:19
+ -
@cathal: Eigentlich sind die Compute-Funktionen und OpenCL nur ein Aufsatz auf CUDA, bzw. die Ati-Technologie. CUDA braucht man also weiterhin. Denn es läuft so: DX11 spricht CUDA an, CUDA den Treiber und der Treiber die Hardware. Übrigens ist CUDA seit der letzten Version schon fähig über DX11 und OpenCL angesprochen zu werden. Die Funktionen sind also drin. Fehlt nur noch DX11 (was ja eigentlich schon da ist, weil W7 schon verfügbar ist) und entsprechende Software.
[re:4] LoD14 am 26.08. 11:28
+1 -
@cathal: carmack setzte immer auf relativ unabhängige lösungen von softwareseite her. seine spiele waren immer schnell auf Mac und Linux portiert bzw es wurden direkt linux clients mitentwickelt. deswegen setzt er auch gerne auf openGL und nicht auf DX. Deswegen wird auch idTech5 nur DirectX 9 nutzen und speziellen DX10 funktionen nicht nutzen, damit es eben nicht so sehr an ein windows gebunden ist. und ich finde, das ist GENAU der richtige weg.
[re:5] cathal am 26.08. 11:49
+ -
@LoD14: Das mag sein, aber er sagte auch das künftige Spiele nicht mehr für Linux erscheinen, daher schneidet er sich doppelt ins Fleisch wenn er nicht auf DX11 setzt.
[re:6] LoD14 am 26.08. 11:53
+ -
@cathal: nur dass sie nicht für linux erscheinen werden heißt nicht, dass es sie nicht für linux geben wird. irgend ein quake teil wurde nur auf linux portiert (weis net mehr welcher ausm kopf, google mal), weil der source code geleakt wurde und dann von fans portiert wurde. aber id verklagt solche leute nicht. sondern sie haben da weiter drauf aufgebaut. und warum schneidet er sich ins fleich, wenn er nicht DX11 benutzt? erklär mir das mal.
[re:7] ThreeM am 26.08. 12:10
+ -
@LoD14: Sorry aber wo hast du das denn geträumt? "irgend ein quake teil wurde nur auf linux portiert (weis net mehr welcher ausm kopf, google mal), weil der source code geleakt wurde"
[re:8] LoD14 am 26.08. 12:13
+ -
@ThreeM: When the source code to Quake was leaked and circulated among the Quake community underground in 1996, a programmer unaffiliated with id Software used it to port Quake to Linux, and subsequently sent the patches to Carmack. Instead of pursuing legal action, id Software, at Carmack's behest, used the patches as the foundation for a company-sanctioned Linux port.
[re:9] njinok am 26.08. 12:29
+ -
@ThreeM: So ein Müll, informier dich mal bevor du die Klappe aufmachst!
[o7] cathal am 26.08. 10:45
+ -
John Carmack hat zwar Legenden geschaffen (Doom, Quake) aber er scheint in letzter Zeit Probleme zu haben mit dem allgemeinen Trend zur Parallelisierung schritt zu halten (Er moserte auch über die PS3 die nur mit gutem Multithreading Code ausreizbar ist) Wenn die Physik nun "ausgelagert" ist muss man das wohl auch Parallelisieren. Blöd halt wenn man das nicht hin bekommt. Den gleichen mist hat er auch schon über CUDA gesagt, da muss man nämlich massiv Parallelisieren. Fazit: Entweder kommt er nicht mehr mit oder wird von ATI bezahlt.
[re:1] LoD14 am 26.08. 10:53
+1 -
@cathal: hast du mal drüber nachgedacht, was parallelisierung kostet? ich glaube das war ne verdopplung der kosten pro logische prozessoreinheit. viel spass bei 6 threads, haste 6 mal höhere kosten =) ich meine ok, die 360 hat auch 6 threads mit denen gearbeitet werden kann, aber das SDK scheint so gut zu sein, dass es dort machbar ist. aber mal erlich, wenn du software entwickelst, die sich entweder auf sagen wir mal 2 threads realisieren lässt oder als alternative kannst du 6 threads benutzen... wählst du dann den weg der 3x höheren kosten und das risiko, was damit verbunden ist? nehmen wir mal als beispiel Rage aka IdTech 5: 10 Millionen Entwicklungskosten. Da haste mal nen Preisrahmen, hyptetisch gesehen das als reine PS3 anwendung mit 6 threads zu entwickeln wäre ein kostenfaktor x3 (ich behaupte mal, das ist für 2 thread optimiert, was am pc standard sein sollte), also 30 millionen. und dann muss man bedenken, 2004 zb (letzten zahlen die ich fand) hat id 30 millionen umsatz und 10 millionen gewinn gemacht... rechne mal nach, was das für ein risiko wäre, wenn sich dann so ein titel nicht verkauft (bei der ps3 ja eh ein kunststück, die ist nicht verbreitet genug um dann noch gewinn zu machen)
[re:2] cathal am 26.08. 11:01
+ -
@LoD14: Ich gebe dir vollkommen recht das das SDK da eine große Rolle spielt. Ich selbst entwickle nur für Windows und nicht für Konsolen. Mit der Parallelisierung habe ich mich intensiv beschäftigt und muss sagen das Microsoft hier in letzter Zeit sehr gute Unterstützung bietet. Besonders im Dot Net Framework 4.0 ist Parallelcode fast ein Kinderspiel geworden.
Wenn es da auf der XBox etwas nur im Ansatz gleich gutes gibt kann ich verstehen warum die Entwickler die 360 bevorzugen. Dennoch habe ich bei Carmack den Eindruck das er in letzter zeit sehr konservativ geworden ist. Seinen Status als "Guru" hat er mit seinen Aussagen zu Physx, Cuda und Multithreading jedenfalls verwirkt.
[re:3] LoD14 am 26.08. 11:11
+ -
@cathal: guck dir mal die bilder der idtech5 von der quackecon 2007 an. die lief auf einem einzigen kern. ich glaube, solche aussagen, wie du sie triffst, darfst du dir erst erlauben, wenn du sowas auch mit nur einem kern hinkriegst. was carmack mit einem kern hinkriegt, kriegen heerscharen von entwicklern nicht mal mit 8 kernen hin. ich empfehle dir auf rage zu warten, die idTech5 da ist dann multikern fähig. und mal ganz erlich: würdest du höhere kosten und aufwand in kauf nehmen, wenn dus auch mit effizienter ausnutzer einfacherer wege machen könntest? mit gleichem ergebniss und weniger kosten? ganz erlich?
[re:4] ox_eye am 26.08. 11:30
+ -
@LoD14: Ja, und warum macht es dann keiner? Voodoo war nach euren Kommentaren die beste Karte. OpenGL war angeblich auch besser als DirectX. Meinst du die mögen John C. nicht, oder warum wählt man immer einen anderen weg, obwohl es kosten- und aufwandgünstiger ginge?
[re:5] LoD14 am 26.08. 11:42
+ -
@ox_eye: ich glaub, du solltest mal in seine biographie schauen. er ist idealist. bisher wurden alle seine engines irgendwann open source. er arbeitete an den openGL treibern für linux mit. er hat beim X windows system mitgearbeitet. es ist dann nur eine frage, wie weit man bereit und fähig ist, für idealismus zu zahlen. die entscheidung openGL oder DirectX hat bei weitem nicht so hohe kostenmultiplikatoren im rucksack wie parallelisierung. und du siehst ja an EA, was für ein mist rauskommt, wenn man ohne idealismus mit billigsten methoden versucht, spiele auf den markt zu werfen.
[o8] corpID am 26.08. 10:48
+ -
Versteh ich den werten Herrn Carmack da jetzt richtig? Er befindet PhysX für Sinnlos, weil AGEIA mit dem Ziel gegründet wurde, sich aufkaufen zu lassen? Das ist doch nicht sein Bier, oder musste er etwas Geld in beide Firmen (AGEIA sowie nVidia) investieren? Ich denke nicht. Ich sehe in seiner Aussage keinen einzigen Punkt der direkt gegen PhysX sondern eher gegen das "Geschäftsprinzip" der Erfinderfirma gerichtet ist. Was schlecht an PhysX sein soll, sei jetzt mal dahin gestellt, es bringt doch keine nachteile sondern bei Spielen, die es unterstützen eher Vorteile. Ich denke eher, er hat kein Interesse daran auf PhysX zu setzen und möcht mit iD lieber bei Havok bleiben.
[re:1] Patata am 26.08. 11:13
+ -
@corpID: Wenn man sich das Video dazu ansieht, sieht man auch, dass seine Aussage einzig und allein auf das Geschäftsmodell bezogen war
[re:2] corpID am 26.08. 11:29
+ -
@Patata: Ich bin gerade im Büro und kann hier nicht in den Genuß von Videos oder sonstigen Flashanwendungen kommen :)
Werde es mir daheim aber mal ansehn.
[o9] Patata am 26.08. 11:05
+ -
Hier das eigentliche Video: http://www.youtube.com/watch?v=aQSnXhgJ4GM
[10] Ronny@Home am 26.08. 11:18
+ -1
Wundert mich nicht, zählt Carmack doch zu den wenigen Leuten, die es schaffen auch komplexe Engines möglichst flexibel und so hardwarenah zu progammieren, daß selbst die momentan teuerste Hardware bis ins Schleudern skaliert werden kann. Der benötigt diese Baukasten-Systeme nicht im Gegensatz zu den Konsolen-Proggern, die immer die gleiche Hardware haben, oder den ganzen EA-Spieleschmieden, die Quadcores für Mehrfach-Pentium3 halten und komplett an modernen Optimierungscodes vorbei programmieren. Ja, von dem könnten alle etwas lernen, egal ob Hardwarehersteller, Spieleprogrammierer oder die Softwaredistribution. Der Mann ist einfach eine Koryphäe, der manchmal etwas gnadenlos über die halbherzige Arbeit anderer urteilt.
[11] QUAD4 am 26.08. 11:21
+ -
ich finde auch das carmack recht hat. zur damaligen zeit gabs keine mehrkernigen prozessoren, da hat das sicherlich noch sinn gemacht. jetzt aber wo es schon 8 kerne gibt ist so eine karte überflüssig. zumal auch nicht alle spiele diese physix nutzen, auch wenns immer mehr werden. man muss ja dafür auch lizenzgebühren an nvidia zahlen um davon zu profitieren.
[12] F98 am 26.08. 11:24
+2 -
"Gründer von id Software hält nicht viel von PhysX" <-> "Er persönlich hält von dieser Geschäftsstrategie nicht sehr viel." Komischer Artikel irgendwie. Hält Carmack nun von der Technologie an sich nicht viel oder nur von dem Geschäftsmodell?
[re:1] ox_eye am 26.08. 11:34
+1 -
@F98: Zustimm. Ist mir auch aufgefallen als ich es gelesen habe. Was genau er nicht so gut findet kann man dem Artikel nicht ohne weiteres entnehmen. Vielleicht findet er PhysX gar nicht schlecht, sondern nur das wirtschalftliche Modell
[13] Duskolo am 26.08. 11:28
+ -
Vielleicht endet das Thema Physikberechnung ähnlich wie Onboard Sound vs. Soundkarte damit, dass man einen "billigen" Basischip auf jeder Grafikkarte verbaut, der sicherlich ausreichen wird, und für diejenigen die die Bewegung jeder Haarspitze im Wind genau Simulieren möchten, können dann eine zweite GTX285 dazu nehmen :)
[14] Gast76795 am 26.08. 12:25
+ -
Ich halte viel von der Idee, aber die Umsetzung ist katastrophal.
[15] Ludacris am 26.08. 12:26
+ -
"Besitzt man ene CUDA-fähige Grafikkarte, so kann man sie auch nur als Physikbeschleuniger einsetzen, sofern man noch eine zweite Grafikkarte für die Grafikberechnung verbaut hat. " Ich habe in meinem notebook eine Geforce 9600GTM CUDA mit 1GB Vram und kann ohne zweiten Grafikchip PhysikX verwenden...
[re:1] Patata am 26.08. 12:55
+ -
@Ludacris: Darum ja AUCH. Dieses Wort macht in diesem Fall den entscheidenden Unterschied. Dort steht ja nicht "so kann man sie nur als Physikbeschleuniger einsetzen..." :)
[16] SAG am 26.08. 13:08
+ -2
John Carmack ist ein Spiele Entwickler Gott und der weiß vovon er redet!

Mein PC ist 4 Jahre alt und Wolfenstein läuft mit dermaßen vielen Frames, unglaublich.

NVidia ist eine der ganz üblen Firmen, die mit noch mehr GraKa Funktionen ihre Karten verkaufen will, damit auch die Performance erst in der übernächsten Generation richtig funzt.

Seinerzeit hat eine Voodoo 3 Karte nur über NVidia lachen können. Aber Marketing und größe Sprüche ist eben alles in unsere Gesellschaft.
[17] Shadow27374 am 26.08. 14:40
+ -
Er hat Recht damit diese Technik der letzte Mist war und Ageia vermutlich nur leicht Geld verdienen wollte. Aber nVidia hat es richtig gemacht dank ihnen können wir ohne PhysX-Karte diese Effekte nutzen.
[18] kadda67 am 26.08. 17:24
+ -
Wer hat diesen völlig verdummten Text geschrieben?
1. Zu den "PhysX Beschleunigerkarten" konnte Carmack gar nichts erzählen. Sie gibt es schon längst nicht mehr.
2.Man kann sehr wohl PhysX auch nur mit einer Nvidia Karte betreiben. Man braucht nur min. 32 shader einheiten und 256mb vram.
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture