Skocz do zawartości

Intel odpuszcza


Przem0l

Recommended Posts

Intel odpuszcza sobie Larrabee. Na razie odsuwa termin wydania platformy, ale znając życie "bezterminowe odwlekanie" może oznaczać po prostu to o czym delikatnie przebąkuje się w szeregach producenta. Otóż Larrabee nie ma szans z zabawkami AMD. Radki serii 5 wciskają grafę Intela głęboko w ziemię a do tego dochodzi jeszcze optymalizacja sterów oraz całych silników gier. Jakby tego było mało nVidia wciąż dwoi się i troi aby wreszcie stworzyć GT300. Jak pewnie wiecie nadal nie mają NIC i szybko NIC nie pokażą. Gdy już to zaprezentują to AMD będzie w połowie drogi do opracowania Radeona 6xxx, co tylko potwierdza decyzję Intela w sprawie wydania Larrabee.

Intel ponoć miał walczyć w niskim segmencie rynku, więc teoretycznie nie powinien aż tak bardzo przejmować się osiągami topowych modeli konkurencji. Jak wiadomo dobry start, czyli pierwsze wrażenie to najważniejsza sprawa. Jeżeli ludziska zapamiętaliby Larrabee jako szit to nawet kolejne generacje sprzedawałyby się kiepsko. A tak to przynajmniej nie można o nim powiedzieć nic złego.

Myślę, że oficjalne przyznanie się Intela do porażki (że konkurencja jest niedościgniona i czcze przechwałki Intela okazały się słowami rzuconymi na wiatr) to tylko próba odwrócenia uwagi komentatorów od głównego planu Intela: Intel nie chciał tworzyć kart graficznych - on chce być rozpoznawalny jako producent procków i dlatego Larrabee skończyło się zanim się zaczęło. Być może Intel zrobił eksperyment: zobaczył ile potrzeba czasu i funduszy aby zrobić model, który będzie ledwo nadążał za średnim modelem poprzedniej generacji konkurencji. A przecież jak TSMC upora się z problemami technologicznymi (zamiast 80-90% wychodzi im 50% z wafla) to nie dość, że AMD zaleje rynek serią 5xxx to jeszcze obniży ceny, przez co wynalazek Intela nie miałby szans na przebicie. Mówię to jako osoba, która przywykła do zaporowych cen u Intela za nowości.

No cóż, teraz pozostaje czekać aż Intel wymyśli następcę Larrabee. Przecież kiedyś MUSI zintegrować CPU z GPU. Pozostaje też wierzyć w to, że odpuści sobie ideę grafy, która poskromi wszystko co się obecnie sprzedaje na rynku. Choćby z tego powodu, że za ten czas czyli 2-3 lata zarówno AMD jak i nVidia zbawią świat przynajmniej 2 generacjami kart.

Odnośnik do komentarza
Udostępnij na stronach

A ja jestem zdania, że jak ktoś zaczyna robić wszystko to jest do bani - niech robią procki z większą ilością jajek na skalę masową, albo dopracują obecne procesorki.

Sam pomysł nie jest zły, no ale nie wolno optować na samych konceptach - badać rynek i się wpasować, jak nie ma miejsca to nie obiecywać i tyle.

Odnośnik do komentarza
Udostępnij na stronach

badać rynek i się wpasować' date=' jak nie ma miejsca to nie obiecywać i tyle.[/quote']

Cała zabawa polega na tym żeby ściemniać klientom - żeby oni poczuli nieodpartą potrzebę posiadania danej rzeczy. I wtedy dobra firma "X" łaskawie spełnia ich oczekiwania. Ale tak jak mówisz, tym razem im "nie pykło".

A ja tylko czekam na 3 rzeczy:

1. TSMC zmniejszy ilość odpadów;

2. nVidia wreszcie da GT300, ale nie takie "na odpiernicz" tylko dopracowane;

3. twórcy gier i softu zaczną wykorzystywać potencjał graf a nie tylko zwalać winę na DirectX i Microsoft. Jakoś konsole mogą mieć archaiczne karcioszki i zapewniać płynność w nowościach.

Odnośnik do komentarza
Udostępnij na stronach

Przem0l 50% z wafla to i tak dużo :P

Ogólnie teraz każda firma myśli o tym aby produkować i procesory i procesory graficzne aby móc tworzyć własne platformy. Poza tym nVidia z CUDA to coś genialnego. Jak to się rozwinie bardziej to wystarczy zwykły tani procesorek + kupisz 2 lub więcej graf i będą się CUDA działy :P

Odnośnik do komentarza
Udostępnij na stronach

Będą? Połowa szarych userów nie wie co do czego służy więc nie byłbym taki pewien.

Ogólnie teraz każda firma myśli o tym aby produkować i procesory i procesory graficzne aby móc tworzyć własne platformy.

Super, tylko teraz to już za późno na takie posunięcie. AMD miało farta, bo ATI się sypało i odrobina kasy zainwestowana w nich procentuje - co z tego że chwilę po tym AMD zrobiło likwidację fabryki i zwolniło pracowników - tworzą platformy jakie chcą, w rozwiązaniach dla graczy mają platformę Dragon (w lapkach ASUSa też mają dwie grafy: integre i 4570, zwą to zacnie platformą).

Co jak co, ale Intel teraz pomimo wielkiego sukcesu pluje sobie w twarz, że nie pofatygował się o zakupienie ATI, a na nVidie nie ma co liczyć, bo ona sama chce zacząć robić procki.

Odnośnik do komentarza
Udostępnij na stronach

nVidia i Intel

Hm...dwa giganty połączone jedną firmą pod nazwą InVidia...błogosławieństwo czy przekleństwo dla mas?

Co do AMD - kwestia tego, czy zakup ATI spowodował takie opóźnienia w kolejnym wydawaniu procesorów? Mówcie co chcecie, ale AMD zrobiło nam wielką przysługę, że postawili na "tonący" okręt - dzięki temu nVidia nie ma monopolu, a obecność dwóch producentów wpływa korzystnie na zasobność naszego portfela (czego od 2 i więcej jajka w procesorach powiedzieć nie można).

Odnośnik do komentarza
Udostępnij na stronach

A teraz w punktach :P:

1. NVidia nie może produkować architektury x86, bo ma na nią patent Intel.

2. Gdyby AMD nie kupiło ATI to mielibyśmy lepsze procki i C2D wcale nie zrobiłoby takiego szału. Wtopili z kasą ratując ATI i to w momencie gdy zdali sobie sprawę, że przespali na laurach za dużo czasu (Dual Core - to był początek końca X2). AMD robiło 4x4, dzięki czemu aplikacje 1 rdzeniowe miałyby sprzętowo dzielić się na poszczególne rdzenie i przyśpieszać ... ale skończył się "wolny" szmal (bo poszedł w ATI).

3. Z perspektywy czasu dobrze się stało, że ATI nie wpadło w ręce Intela bo zły Intel schowałby ją do szuflady - tak samo jak teraz zrobił z Larrabee i wcześniej z Havokiem. Intel jest tak piekielnie bogaty, że mógłby "bardziej" postarać się w tych 2 sprawach ale on tego nie chce. On chce mieć monopol na wszystko i dlatego kupuje i chowa technologie.

4. Intel nie boi się nVidii i wręcz ją zwalcza na każdym kroku. Pamiętacie jak dołożył wszelkich starań aby na topowych płytach głównych nie można było robić SLI? Jego chipsety - jego rancho. NVidia coś kombinowała ale to pożerało piekielne ilości energii i się nie przyjęło.

5. Obaj producenci CPU (Intel i AMD) chcą odsunąć nVidię od produkcji chipsetów do ich płyt głównych i w zasadzie już im to się udało.

6. NVidia widzi, że robi mały wypad z rynku PC więc szuka innych rynków (ARM, Tegra, ...). Jak będziemy mieli czekać na GT300 jeszcze ponad kwartał, wyjdą gry pod Direct X 11 i TSMC poprawi proces produkcyjny (AMD/ATI zaleje rynek towarem o niższej cenie) to zacznie się nieciekawy dla nVidii schemat. Otóż AMD już chwali się nową generacją kart i przejściem w niższy proces technologiczny.

7. Ciekawi mnie dlaczego Intel po prostu nie kupi AMD. Stać ich.

Odnośnik do komentarza
Udostępnij na stronach

ad. 7 Żaden sąd nie pozwoli na zmonopolizowanie tego sektoru :P

ad. 2 Może mieli by lepsze procki... ale uratowali ATI i te grafiki teraz królują i być może będą dalej rządziły. Jeżeli tak będzie to i AMD/ATI zacznie zarabiać przez co będzie można ulepszyć zwykłe procki. Poza tym kto wie czy już za 10 lat to grafika będzie odpowiedzialna za większość obliczeń a procesor będzie mało ważny.

Odnośnik do komentarza
Udostępnij na stronach

Poza tym kto wie czy już za 10 lat to grafika będzie odpowiedzialna za większość obliczeń a procesor będzie mało ważny.

Coś Ty, nie liczyłbym na to. Zważ na rozwinięcie skrótu CPU - już dawno temu ktoś zaplanował, że to on będzie "liczył", a jakby tego było mało to próbują przecież dołączyć procesor graficzny do normalnego, wszystko na jednym kawałku. Także nawet jeśli twoja wizja byłaby prawdziwa to pewnie skończy się na pół na pół - czyli i CPU i GPU współpracują.

Ale czy to oszczędne rozwiązanie? No nie, bo podczas pracy na pulpicie i dokumentach taki GeForce8800GT odczytuje to jako Idle i nie ma poboru prądu tak ogromnego jak podczas wyświetlania zaawansowanych grafik. Dołóżmy do tego pracujące CPU i wychodzi się lepiej, zwłaszcza że dąży się do zmniejszenia poboru prądu potrzebnego do pracy.

Odnośnik do komentarza
Udostępnij na stronach

Rogal GPU mają to do siebie że liczą zmiennoprzecinkowo przez co liczą szybciej a CPU nie. Co do poboru prądu to już teraz powinieneś zauważyć że procek działa Ci z minimalną wartością częstotliwości (u mnie 800MHz) a dopiero jak coś odpalam to to wtedy procek się podkręca na 2.2GHz. W GPU też tak jest że Ci nie działa na full obrotach all the time...  chyba że tak ustawisz :P Jeżeli faktycznie połączą CPU z GPU to CPU będzie miał bardzo mało do roboty :P

Odnośnik do komentarza
Udostępnij na stronach

I dlatego Intel chciał wejść w Larrabee ale ... no właśnie. Gdy powstawała koncepcja Larrabee AMD i nVidia miały karcioszki, które miały podobną wydajność do zakładanej w projekcie Intela. Sęk w tym, że potem powstało X2 (4850 X2 i 4870 X2) oraz choćby GTX 285, które już wtedy zjadały Larrabee na śniadanie. Co prawda Larrabee to nie tylko gry, więc byłoby z nich więcej pożytku nawet gdyby były nieco wolniejsze od konkurencji... ale Larrabee wciąż nie było ukończone. Czas leciał i teraz mamy Radeona 5890 i czekamy na GeForce GT300 a Larrabee wciąż nie ma... Gdyby MOŻE pojawił się za kilka miesięcy to i tak nVidia i AMD wydadzą już dwurdzeniowe kanapki a wtedy GŁÓWNY odbiorca Larrabee czyli w sumie gracze patrzeliby z politowaniem na tą powolną ^%&$%$%. A teraz po wstrzymaniu projektu wiemy, że minie sporo czasu aż zobaczymy następcę Larrabee, ale wtedy będzie jak już pisałem Radeon 6xxx i GT400..

W gruncie rzeczy jednak Intel mógł zaryzykować, a wiecie czemu? Bo go stać na dopłacanie do każdej sztuki tak aby być znacznie tańszym od konkurencji. Do tego przekupstwa i rabaty w salonach sprzedaży oraz opłacone recenzje i nieco odłożonej kasy na przegrany proces prze UE o zagrywki monopolistyczne, bo na pewno by im się sięgło. Ale by weszli na rynek...

Odnośnik do komentarza
Udostępnij na stronach

Gość
Ten temat jest zamknięty i nie można dodawać odpowiedzi.
×
×
  • Dodaj nową pozycję...