Skocz do zawartości

Znowu "AMD" i kolejne "powody do zmartwień nVidii"


Przem0l

Recommended Posts

AMD nie próżnuje. Teraz atakuje rynek mobilny czego dowodem jest armia Radków serii 5 gotowa ... wyczerpać Wasze baterie :D.

AMD wysłało na front modele 5800, 5700, 5600 i 5400. Wszyskie wrócą nawet nie zadrapane i to jest pewnik a to z kilku powodów:

1. pamiętacie serię 8xxx pod lapki od nVidii? One potrafiły zjarać każdego lapka, nie ważne czy to tani Acer czy drogie HP lub Toshiba. NVidia przyznała się do "problemów", przeprosiła i sprzedawała je dalej.

2. marketing: DirectX 11 w zasięgu ręki a nie na papierze jak to wygląda u konkurencji. To co, że nie ma softu pod DX11, grunt że będzie wyryty na obudowie gwoździem napis "DirectX 11". Sam bym to kupił .

3. moc. Model 5800 ma 800 shaderów (znając życie to 160 "prawdziwych" shaderów x 5 operacji na cykl), 1 GB DDR5 (tak, dostajemy na płycie cały gigacz DDR5) i ponad miliard tranzystorów. Co to oznacza? Najprawdziwszy stacjonarny Radeon 4870 na sterydach.

4. energooszczędność (moje gdybanie). Jeszcze nie ma wyników apetytu na prąd tej karcioszki, ale domyślam się, że jest mniejszy niż najmocniejszego mobilnego modelu nVidii.

5. nVidia nie dość, że nie ma nawet stacjonarnego modelu zgodnego z DX11 to zanim wyda model mobilny minie trochę czasu.

6. od razu walą przekrojówkę. Od szczytu marzeń po podstawowy model, który ma na pokładzie 16 shaderów ("niby" 80). Wszyscy będą zadowoleni.

Oczywiście chciałbym aby nVidia "postarała się bardziej" i wydała wydajny, energooszczędny, niepsujący się i tani chip :D. Choćby z tego powodu żeby prezesom AMD zwyczajnie "nie odbiło" i nie podnieśli mocno cen (monopol = wzrost cen).

Odnośnik do komentarza
Udostępnij na stronach

Ogólnie to AMD zawsze dominowało rynek mobilny, bo w testach użytkowników "Kowalski like" nikt nie wymagał cudów. Mój mobilny radek wbrew komentarzom:

Jestem uzytkownikiem ekstremalnym moj laptop faktycznie jest uzytkowany na maksa. Troche pracy pozniej granie i filmy w roznych miejscach i warunkach. Ja na razie ten tani Asus milo mnie zaskakuje - fakt czasem sie grzeje np w czasie gry (WoW na low details smiga spoko) poza tym ma mila klawiature, brakuje mi tylko lepszej funkcji przewijania na padzie bo ta nie dziala precycyjnie. Polecam!

Wciąga taką piękną grę jak CoD 4 na medium high bez zająknięcia.

Jedyny mankament to grzanie, bo podczas grania w Crysisa mogłem robić sobie jajecznice od razu - 100 st C w stress...

Dlatego czekam na posunięcie nVidii, bo wtedy Radki stanieją na tyle, że będzie można myśleć o czymś takim wraz z innymi bajerami mobilnymi.

Jednak zanim to będzie to...nVidia spróbuje sprzedać 3D Vision :D

Odnośnik do komentarza
Udostępnij na stronach

3DVision to dziwny temat. Dzięki filmowi Avatar w 3D, wszystko co ma napis "3D" jest już skazane na popularność. Sęk w tym, że 3DV to nie jest "wizja 3D" ale "proteza 3D".

Masz 2 kolorowe folie osadzone w kartoniku z 2 dziurami oraz przygotowane sterowniki, które przesuną krawędzie i kolory na ekranie. U wielu osób powoduje to bóle głowy lub oczu ale nie tylko to jest "za NIE" ponieważ z drugiej strony inni nie mają takich problemów. Głównym problemem jest dość znaczny spadek FPSów i nierównomierne pokrycie ekranu wypukłościami.

Może technologia się rozwinie ale znając życie - głównie ta dla bogatszych użytkowników.

Odnośnik do komentarza
Udostępnij na stronach

Byłem wczoraj na Avatarze 3D i prawdę mówiąc nie wyobrażam sobie grania w gry w 3D. Przez ten obraz robi się lekkiego zeza, co męczy, a awatarze tych scen z bardzo wyraźnym 3d nie było tak dużo jak w grach może być. Po 2.5 h filmu plus tailery 3D głowa mnie bolała i nie tylko ja doświadczyłem tego efektu ubocznego, w sumie byliśmy w 4 w kinie i wszystkich bolała głowa, nawet do tego stopnia, że znajomi robili sobie przerwy i zdejmowali okulary, u mnie aż tak źle nie było.

Dlatego uważam, że ta technologia wcale nie jest taka super.

Odnośnik do komentarza
Udostępnij na stronach

Przem0l FPS spadają gdyż są liczone tak jakby 2 różne obrazy, które są przesunięte względem siebie, tzn. to jest jeden obraz ale odpowiednio przekształcony w 2 inne obrazy. Czyli jak masz obraz generowany przez grę dla 1 kamery (widok zza postaci) to jest prościej zrobić 3D gdyż prawdziwe 3D musiało by polegać na tym, że twórcy gier musieliby tworzyć kod który wstawiałby 2 kamery w grze z obu stron postaci i te dane były by liczone jak byś grał w tą samą grę w tym samym czasie x2 i dodatkowo te obrazy w locie musiały by być na siebie nakładane. Tak więc musiałbyś posiadać POTWORA (takiego "kanapkowego" czyli 2xPCB z prockiem graficznym) albo najlepiej DWA "takie" POTWORY żeby można było się tym cieszyć. Co moim zdaniem i tak by nie cieszyło :D

Dla mnie 3D będzie wtedy gdy przez CAŁY film będę wiercił się w fotelu dlatego, że coś we mnie będzie leciało, coś przeleci mi przed nosem, koło ucha i to będzie realistyczne. Oglądając film w 3D zawsze mnie bolą oczy... może dlatego, że obraz jest rozmyty. Ogólnie nie lubię tego obecnego pseudo 3D! Jeden efekt w tej technologii dobrze zrobiony mnie nie usatysfakcjonuje!

A co do nowych Radków to im wydajniejsze od konkurencji tym lepiej. Już od długie czasu jest tak, że raz ATI raz nVidia... i tak w kółko. Dlatego nie ma co się gorączkować... Kto wie jak sytuacja się zmieni kiedy nVidia również zacznie wykorzystywać GDDR5 :D na razie wszędzie pchają GDDR3....

Odnośnik do komentarza
Udostępnij na stronach

I o to moi mili chodzi - widzicie, że ta "technologia' to SZIT i nie dajecie się porwać w owczy pęd "ku światu 3D". Tyle, że forsę robi się właśnie na owieczkach i to oznacza, że masa ludzi dałaby się pokroić za TANIE (powtarzam: tanie) 3D we własnym domu. Bez względu na to jak to działa i czy można było to zrobić lepiej.

A co do potwora czy kanapek - za czasów gdy nie antyaliasing nie był popularny to też tak mówili. A potem zaczęły pojawiać się "optymalizacje" i w większości tytułów czy włączycie AAx4 czy nie to aż tak bardzo tego nie odczujecie. Nie mówię o optymalizowaniu sterów (czyli o pogarszaniu jakości renderowanej grafiki) ale o optymalizowaniu procesorów graficznych. Pamiętam czasy gdy Riva TNT nie cierpiała ani AA ani nawet 32 bitów, one były dla niej zabójcze i dało się grać tylko w 16 bitach. Mówię o czymś bardziej wymagającym niż Quake 3 Arena.

Dla tego taniego trybu 3D też pojawią się optymalizacje. Poza tym gry nie wykorzystują aż tylu shaderów co widać choćby po nie oszałamiających różnicach w FPSach pomiędzy GF 9600GT a 8800/9800GT. Niby jest ~2x więcej shaderów ale różnica w prędkości dość znikoma. Gdyby tak napisać stery do 3D Vision żeby wykorzystywały wolne zasoby kart to pewnie nie mielibyśmy mieli takich strat na wydajności. Naturalnie wiąże się to też z przepustowością pamięci ale spece od "optymalizacji" na pewno znają sposoby na wyciśnięcie dodatkowych FPSów.

W każdym bądź razie to już jest problem tych co lubią się kaleczyć obecną technologią. Ja poczekam cierpliwie aż łaskawie jakaś firma wróci do czasów GeForce GTS czyli pierwszego GF i da podłączone do karty okulary i napisze własny soft. Kiedyś to działało, tak jak VR za pomocą hełmów, ale jak widać nawet po latach musimy wracać do plastików i kartoników. Masakra.

Odnośnik do komentarza
Udostępnij na stronach

Gość
Ten temat jest zamknięty i nie można dodawać odpowiedzi.
×
×
  • Dodaj nową pozycję...