Skocz do zawartości

Czy larrabee będzie najlepsze?


Ralliart

Recommended Posts

Wasze opinie na temat nowego procesora graficznego spod znaku Intela - czy to będzie przełom tak jak nam się obiecuje? Moim zdaniem szanse na to są po tym, jak znalazłem informację o tym, że jego API ma być w pełni programowalne. To oznacza, że obsłuży każdą wersję DirectX bądź OpenGL jaka wyjdzie - sterowniki będą decydować o tym czy karta obsługuje DirectX 9 bądź 12 bądź 30 :D Koniec z koniecznością zakupu karty pod określonego DirectX mają za to ogromnego plusa. Oczywiście ładnie pięknie, ale: laminat będzie miał 12 warstw (najmocniejsze karty mają obecnie 8 ), a na dodatek będzie potrzebował 300W mocy. Jak uważacie czy zyski przeważą starty?

Odnośnik do komentarza
Udostępnij na stronach

  • 2 weeks later...

Niech najpierw przewyższy mocą karty, które wyszły lata temu i ich szczytem był DirectX 9.0c. Mówię choćby o ATI Radeon 1950 XTX :D. Buahahah, Intel poszedł w kolejne rdzenie zamiast w wydajność. Jak widać znudziło mu się czytanie na forach postów typu: "... czemu GMA 3100 to syf? Czemu gry są na niej brzydkie? Czemu...". To co, że Intel w całej swej dobroci dla zwierząt obdarzył nas modelem 4500, skoro lapków wyposażonych w to coś co pomieściło Vertex Shadera praktycznie nie ma w sprzedaży, a jak były to ich ceny były porównywalne z mobilnymi radkami?

Intel modelem Larrrabee zrobił krok naprzód, zrobił to co AMD/ATI powinna zrobić już dawno temu a nVidia robi teraz (bodajże już weszli w posiadanie technologii x86). Konsolidacja CPU i GPU to przyszłość i pewne zyski dla producenta. Sęk w tym, że MY możemy zapomnieć o selektywnym OC poszczególnych części, poza tym nie zapominajmy o "bebechach":

- obecne karty nVidii mają DDR3 przekraczające 2 GHz przy 512 bitach i kontrolerze pamięci dużo bardziej rozbudowanym w stosunku do x86 niż wynikałoby to tylko z samej szerokości szyny. kontrolery krzyżowe wprowadzono wieki temu (GeForce 3 Titanium a może i wcześniej, nie wnikam), a przecież wiecie jakie mamy aktualnie karty w sprzedaży. Do tego na jednej karcie mamy 216 (za 500 zł) rdzeni @ 1.2 GHz;

- obecne karty AMD mają DDR5 podbite przez producentów do 4 GHz i więcej przy 256 bitach, a Radeony są znane z wydajniejszych kontrolerów (potrzebują mniej RAMu w stosunku do GF), plus 160 rdzeni;

- czekamy na GT300 i R5xxx czyli ponad 4 GHzcowe DDR5 z 512 bitami lub więcej. Do tego dochodzi SLI/CF oraz X2 co masakruje wszystko co może wystawić inny producent niż tych dwoje.

- co nam daje Intel? na wiki czytamy czego to nie ma, i jak to nie zamiata w grach "Graphs show how many 1 GHz Larrabee cores are required to maintain 60 FPS at 1600x1200 resolution in several popular games. Roughly 25 cores are required for Gears of War with no antialiasing, 25 cores for F.E.A.R with 4x antialiasing, and 10 cores for Half-Life 2: Episode 2 with 4x antialiasing. It is likely that Larrabee will run faster than 1 GHz, so these numbers do not represent actual Larrabee cores, rather virtual timeslices of such.[19] Another graph shows that performance on these games scales nearly linearly with the number of cores up to 32 cores. At 48 cores the performance drops to 90% of what would be expected if the linear relationship continued." - http://en.wikipedia.org/wiki/Larrabee_(GPU).

To są testy Intela - a ja chcę zobaczyć testy wykonane przez zwykłych śmiertelników w ich zwykłych komputerach i zasyfionych systemach. Do tego chciałbym zobaczyć porównanie screenów w BMP.

Jest to pierwszy taki projekt, jestem ciekaw jak on będzie się sprawował oraz jak będzie się ten zestaw (CPU i GPU) kręcił. Bo jak się nie będzie zbytnio kręcił, to ja dziękuję - zostanę przy nVidii lub AMD. Nie chodzi mi o katowanie grafy ale procka. Ciekawe czemu Intel milczy na ten temat?

Odnośnik do komentarza
Udostępnij na stronach

Gość
Ten temat jest zamknięty i nie można dodawać odpowiedzi.
×
×
  • Dodaj nową pozycję...