Skocz do zawartości

Raytracing w grach


Micz

Recommended Posts

Nie będę przepisywał newsa:

http://gamecorner.pl/gamecorner/1,86013,7065175,Pierwsza_gra_w_raytracingu__W_2012_roku_.html

Gry będą wyglądały naprawdę niesamowicie tylko, jak zauważył autor newsa, ile to będzie kosztowało. Zarówno karty graficzne, jak i same gry, ale nie powiem z chęcią bym zobaczył coś takiego na żywo.

Odnośnik do komentarza
Udostępnij na stronach

Te szklanki wyglądają masakrycznie. A jaki sprzęt będzie potrzebny? Czy to ważne? AMD spokojnie podoła tematowi. Ważne żeby programiści (twórcy gier) zaczęli w końcu wykorzystywać technologię, którą mają gracze w domach... zaraz, chwila. Przecież to się kłóci z prostym rachunkiem: lepiej napisać biedną grę dla potencjalnych 100 milionów graczy (których szroty ją uciągną) niż coś wspaniałego dla wciąż potencjalnych 100 tysięcy graczy.

Jaki z tego morał? Za robienie gier powinny zabrać się AMD/ATI i nVidia. NVidia wydała swego czasu darmowy FPP, w którym można wszystko rozwalać - tak jak w Red Faction. Tak: darmowy, żeby tylko zwiększyć sprzedać GeForce serii 8. I trzeba przyznać, że gdyby się bardziej reklamowali to byłby hicior. Hicior dla nas (bo za free) i dla nich bo zwiększyło by im to sprzedaż kart, KTÓRYCH NIE DA SIĘ PIRACKO ŚCIĄGNĄĆ Z NETU. Jak widać ktoś jednak podciął obiecującemu projektowi skrzydełka.

Odnośnik do komentarza
Udostępnij na stronach

Ralliart - za taki stan rzeczy podziękuj lamerom, którzy zrobili 3DMaxa Studio, Maye lub choćby Postera. Jest to idealny przykład na to, że ktoś chciał na siłę wyznaczać kierunek rozwoju informatyki ... i mu nie wyszło. Nie wiem tylko dlaczego "świat" toleruje taki informatyczny beton zamiast pozwolić firmom, które je stworzyły upaść i zrobić miejsce nowym.

Chcecie przykład informatycznego betonu, gdzie nic się nie zmieniało nawet gdy świat obierał inne drogi rozwoju (nie ważne czy lepsze technicznie - grunt, że mu to wyszło a im nie): 3D FX. Kto stworzył legendę VooDoo? A kto w modelu VooDoo 5 postawił nie na Vertex i Pixel Shader tylko na dodatkowe "pełne" procesory, które choć strasznie generowały koszty (które w naturalny sposób musiał pokryć klient) to dodatkowo te procki wymiękały jeżeli chodzi o wydajność. A bił je GeForce od nVidii. Gdy wyszło pierwsze Titanium (GeForce 3) i różnica w wydajności (oraz cenie) przekroczyła granice dobrego smaku to świat graczy zapomniał o VooDoo.

Taki sam scenariusz powinien przytrafić się firmie AutoDesk. Dlaczego wszystkie gry od wielu lat działają lepiej na lepszych kartach graficznych? Dlaczego przyrost FPS jest prawie liniowy wzrasta z mocą obliczeniową kart (jak się je oczywiście dociśnie detalami)? W/g praktyki stosowanej w produktach AutoDesku (tak jak 3DMax) przyrost po wyjęciu GeForce 2 MX i włożeniu GTX 295 wynosi kilka-kilkanaście procent (czasem nawet poniżej 1 klatki na sekundę). Bo to procek mieli grafikę... Znaczy się: "renderuje". I jak nie wyrabia się z 1 klatką przez nawet przez 15 sekund to zmiana grafy na 100x droższą nie wiele zmienia. Dlaczego nie ma już takich gier? Bo nikt by ich nie kupił.

Seria kart "dla zastosowań profesjonalnych" czyli snobistycznych to zwykła ściema. Miałem nVidię Quadro (GF 4200 TI). Quadro to zwykły GeForce ale z innym BIOSem, tak samo jest w przypadku ATI - to są zwykłe Radki ale z innym BIOSem. Gdy moja karta (po przeróbkach) odpaliła się jako Quadro i sterowniki "magicznie odkryły profesjonalne opcje" oraz przygotowane przez nVidię zakładki dla 3Dmaxa, AutoCada i tym podobnych aplikacji to przyrost w renderingu "był". Szło szybciej ale nie było szaleństwa. A powinno zerwać mi kask. Jest tylko pewien knyf z tymi kartami "pro": nie wszystkie karty idą jak Quadro tylko ich "cywilne" odpowiedniki, poza tym te karty wyciskają MAX z karty. Żaden benchmark, Folding@Home ani tym bardziej gra nie zarżnie tak karty jak puszczenie jej na BIOSie od Quadro. Sekcja zasilania bez lepszego chłodzenia po prostu się spali. Mi (i innym forumowiczom, którzy to testowali) właśnie poszła. Ale warto było. Teraz wiem, że Quadro to tylko wyciąganie łap po nasz szmal.

Ten może przydługi (dla mnie nie :D) opis Quadro był po to aby potwierdzić istnienie bardzo silnego lobby rynku softu graficznego. Skoro nie podzielili losu 3DFX i nadal trzymają się nieźle to znaczy, że niestety szybko to się nie zmieni.

Ralliart - jeżeli nadal twierdzisz, że Shadery są do kitu (bo przetwarzają prosty kod) to odpal jakiegokolwiek benchmarka w normalnym trybie a potem CPU. Jak FPSy spadną z 200 na 1 to chyba jednak dobrze będzie świadczyć o WYKORZYSTANEJ mocy procesorów cieniujących.

A tak poza tym to nie ma szans żeby ta gra cięła na dobrych kartach graficznych i pewnie 1 rdzeniu choćbyś miał ich 8 (Folding@Home nie mrozi Windowsa bo jest tak pociśnięty ale dlatego bo jest tak ch..owy. Zarzyna 1 rdzeń i zatrzymuje system na czas przetwarzania. To co, że mam 4 rdzenie - system stoi.). Jak za daną grę weźmie się twórca kart graficznych to ona MUSI chodzić płynnie. Gry nVidii chodzą płynnie więc nie martwię się o tytuły ATI.

//edit: sorki za błędy stylistyczne i składniowe ale w tym głupim radiu od 10 minut lecą reklamy (głośno) i ciężko jest się skupić.

Odnośnik do komentarza
Udostępnij na stronach

To nie do końca tak jest, że to te firmy nie chcą wykorzystać możliwości tych kart, rendering w programach 3d różni się od tego w grach, a karty nvidii i ati są przystosowane praktycznie tylko do gier. CPU są dużo elastyczniejsze od GPU, mogą wykonywać bardziej różnorodne operacje.

Odnośnik do komentarza
Udostępnij na stronach

CPU są dużo elastyczniejsze od GPU' date=' mogą wykonywać bardziej różnorodne operacje.[/quote']

To ja wiem, ALE 4 fizyczne rdzenie to nie 648 (3x GTX260 [200b]). 1500 zł to cena najtańszego Core i7 z najtańszą płytą - tyle samo kosztują 3 GTXy, z czego każdy ma 216 procesorów 1.3 GHz i ~900 MB RAMu co najmniej 2100 MHz na szynie 448 bit. To co, że te intelowskie rdzenie wypadają ok 3x wydajniej, skoro w tej cenie nVidia daje i tak 50x większy power. Do tego jakiś szybki procek na LGA 775 (OC), trochę RAMu (16 GB) i można cisnąć.

To, że trudniej pisze się pod shadery to już nie mój problem tylko producenta softu. Sony też nie przejmuje się tym, że pisanie pod Cella jest trudne - postawiło na wydajność i ma gdzieś firmy piszące gry - nie da rady "ta" to da "inna".

Odnośnik do komentarza
Udostępnij na stronach

Tak tylko taki 3D studio na CUDA kosztował by nie 17 tyś. zł, a 100 tyś. zł. Po za tym nie wszystko da się zrównoleglić, to wcale nie jest tak, że wszystko przekłada się 1:1. Napisanie programu do archiwizacji to nie lada wyzwanie, a co dopiero takiego programu jak 3D studio. Puki co CUDA i inne rozwiązania tego typu jeszcze nie są wystarczająco dojrzałe, żeby z nich korzystać. Nawet deweloperzy blendera nie podejmują wyzwania, a ich przecież nie pętają rachunki zysków i strat. Jeśli znajdzie się zapaleniec to będzie dłubał, a w takiej firmie jak autodesk nad programistami są ludzie od pieniędzy i liczą czy warto inwestować czas i kasę w takie rozwiązania.

Odnośnik do komentarza
Udostępnij na stronach

Gość
Ten temat jest zamknięty i nie można dodawać odpowiedzi.
×
×
  • Dodaj nową pozycję...