Skocz do zawartości

3D Vision - nowy standard?


Rogal

Recommended Posts

Z racji tego iż mam konto na benchmarku dosyć często czytam, dyskutuję z ludzikami tam zebranymi. Łączę to z promocją naszego forum, ale nie o tym chciałem wam powiedzieć. Zacznijmy od tego:

W Święta Bożego Narodzenie w kinach pojawi się Avatar. Film science fiction, o którym wiele się mówi całkowicie pomijając jego fabułę. Dlaczego? Po pierwsze, jego autorem jest James Cameron i jest to jego pierwszy pełnometrażowy kinowy film od czasu Titanica zrealizowanego pod koniec lat 90-tych. Po drugie, jest to film nakręcony w technice trójwymiarowej.

Temat kina trójwymiarowego regularnie powraca co kilka lat jednak na skutek małego zainteresowania widzów, umiera. Tym razem połączenie wysokiego budżetu, rozwój technologii, nazwisko Camerona i wiele zabiegów marketingowych mogą spowodować, że będziemy świadkami rewolucji. Rewolucji, na skutek której „płaski” obraz zacznie powoli odchodzić do lamusa.

Dla tych co nie wiedzą o czym mowa już rozpisuję się o co chodzi, chociaż domyślam się, że nie ma wśród nas takowych. 3D Vision to patent znany już "wieki" temu, odświeżony, ubrany w nowe oprawki (dosłownie) z zastosowaniem odpowiednich przekaźników podczerwonych i softu na komputerze, który dekompresuje obraz na taki, który pozwoli wykorzystać te okularki. I na tym kończą się przyjemności.

Czemu? Bo pomimo wielkiego wsparcia ze strony programistów załatwiają nas pewne szczegóły logistyczne i sprzętowe, których rozwiązanie zajmie ładnych kilka lat - powaga.

Obsługa tego standardu grafiki wymaga od zainteresowanych monitora o częstotliwości odświeżania obrazu na poziomie 120 Hz. Nie ma miejsca na ulgę. Bite 120 Hz żeby było na poziomie. Z komentarzy które tam wyczytałem wielu ludzi miało (nie) przyjemność testować to rozwiązanie i pozostałe marne parametry monitorów o takiej częstotliwości powodują ból głowy u grającego.

Oczywiście włączenie tego trybu jest baaardzo zasobożerne dlatego spadek płynności ustawia się na poziomie 40-50%.

Czyli policzmy - patrząc przez pryzmat naszych portfeli - jeżeli nas nie stać na nowy komputer to możemy pomarzyć o graniu z tym patentem. Do tego ceny takich monitorów, których jest na rynku mniej niż być powinno a jak już to o pozostałych marnych parametrach i po sprawie. Mnie się odechciało już teraz.

Jak mówi sama nVidia dopiero co podpisane zostały umowy z producentami takimi jak LG, Samsung na rozszerzanie 120 Hz w monitorach.

Skupiłem się głównie na 3D bo personalnie nie korzystam i nie chcę korzystać z aparatów Fujitsu z możliwością oglądania podglądu zdjęć w technologi 3D Vision, nie stać mnie na rzutnik dostosowany do dekodowania obrazów pod tą technologię za bagatela 3000 zł i nie mam co na nim "rzucać". Chociaż może Imic nasza babeczka od fizyki by sobie taki sprawiła i dotknęła technologii a nie starego typu rzutnik nosi i się męczy :P

Zastanawia mnie też kilka innych kwestii - czy jeżeli nVidia odkurza stare patenty z kin do użytku domowego to czy szuka kasy na dalszy rozwój nowej linii kart graficznych, czy może po prostu możemy się spodziewać opóźnienia w jej premierze już teraz?

I dlaczego do cholery jasnej technologia wyjęta z szafy ma większe powodzenie niż piosnka przyszłości? Czemu wszyscy programiści są w stanie pisać specjalne tryby pod 3D Vision (a dokładnie programiści 400 topowych tytułów) a optymalizacja pod więcej niż 2 jajka leży i kwiczy? Nie rozumiem ich, naprawdę :P

Najlepsze zostawiłem sobie na koniec: ASUS trzyma fason, jak się okazuje od dawna wiedział o planach nVidii co do 3D Vision i wydaje dokładnie chwilę później niż te śmieszne okularki "gamebooka". Oto jego specyfikacja:

Procesor klasa wydajna Intel Core i7 820QM 1,73 GHz

                                z technologią Turbo 3,06 GHz

Układ graficzny klasa wydajna: GeForce GTX 260M 1 GB

Ekran             16", LCD z LED glare - błyszczący

                                1366x 768 pikseli

dysk twardy

napęd optyczny 2x 500 GB, 7200 obr./min, SATA II

nagrywarka Matshita DVD

Złącza wideo D-Sub, HDMI

Złącza USB 4x USB 2.0

Głośniki Altec Lansing, obsługa systemu Dolby Home Theater

Wymiary

(szer. głeb. wys.) 37,5 x 26,5 x 3,43~4,06 cm

Waga 3,40 kg z baterią

Wyposażenie dodatkowe Oprogramowanie Asus, Trend Micro Internet Security 2009 (trial), zabezpieczenie BIOS / HDD hasłem użytkownika, czytnik kart pamięci MMC, MS Pro i SD

Cena podana na benchmarku to 6999 zł, ja znalazłem go za niecałe 4500 zł. Powiem szczerze, że taka cena to chyba efekt zastosowanej matrycy, zdolnej wyświetlać obraz w częstotliwości 120 Hz. Tak więc laptop ASUSa jest gotowy na 3D Vision. Tylko, że za tą kwotę można skroić coś o wiele lepszego. Chętni mogą wstawiać maszynki do 7000 zł - może ktoś kiedyś skorzysta :P

Pomimo iż po przeczytaniu mojego posta wielu z was myśli, że jestem sceptykiem co do tej technologii to niech nie mylą was pozory - kiedyś okaże się to must have dla każdego gracza/maniaka filmów. Tylko, że technologia musi się rozwinąć na maksa, musi być wsparcie sprzętowe i solidna optymalizacja dla więcej niż 2 rdzeni - bez tego to umrze. Więc za kilka lat, jak ktoś znajdzie nasze forum na googlach to napisze swoje zdanie i wyśmieje moje (może i wasze) narzekanie przeszłości.

I jeszcze jedna ironia - skoro niedługo Cloud Computing stanie się "koniecznością" chciałbym widzieć jak dużo będzie trzeba płacić za pakiet super przekazu do grania w tym trybie.

Odnośnik do komentarza
Udostępnij na stronach

Kiedyś grałem w CoD'a w technologii 3D, co prawda krótko, o było to na Cebicie, ale naprawdę robi wrażenie, tylko trzeba się przyzwyczaić do takiego grania. Dla mnie technologia Nvidii jest przestarzała, dużo fajniejsze są monitory z okularami polaryzacyjnymi, ja właśnie w takiej technice grałem, dużo wygodniejsze. Po za tym technologia Nvidi jest już przestarzała, producenci telewizorów już wyprodukowali telewizory do których nie trzeba mieć żadnego dodatkowego sprzętu, oczywiście to dopiero prototypy, ale za jakiś czas zaczną wchodzić na rynek.

Odnośnik do komentarza
Udostępnij na stronach

Przykład technologii bez okularów.

http://ckm.pl/Community/Blog.aspx?BlogEntryId=15240

Może przez jakiś czas technologie migawkowe się utrzymają, ale polaryzacja to dużo lesze rozwiązanie i wcale nie musi być dużo droższe, oczywiście wymaga droższego monitora, ale za to okulary są tańsze, i to dużo tańsze. Daje to kolejne udogodnienie, można kupić sobie więcej par takich okularów i oglądać w kilka osób w technologii nvidii to już takie tanie nie jest.

http://www.komputronik.pl/index.php/product/60371/Peryferia/Monitory_LCD/22_Hyundai_W220S_monitor_3D.html

Odnośnik do komentarza
Udostępnij na stronach

I tak zdziera się kasę, za coś co powinno być "za free". Pamiętacie czasy Rivy TNT i GeForce? Wtedy producenci kart graficznych dodawali okulary 3D (nie papierowe śmiecie jak w kinach ale podłączone go kompa) i specjalne stery plus soft. Nie pamiętam jak to wtedy działało i czym się różniło od tego czym teraz nVidia chce nas oświecić ale to ponoć działało. Mówię oczywiście o kartach za ok 1000 zł, bo Annihilatory i podobne zabawki tyle i więcej właśnie kosztowały.

Co skusiło nVidię do zabawy w 3D? Intel odwrócił się od nVidii i na dodatek straszy swoją grafiką, której wyjście na rynek jest tylko kwestią czasu. AMD tłucze swoje 5xxx w spokoju bez obaw na GT300 a nawet jak ono się pojawi to pewnie będzie za drogie. W kwestii chipsetów do AMD to nVidia tez może sobie pomarzyć i pozostaje jest ekspansja na nowe rynki. Najlepiej w takich sytuacjach jest zajrzeć do dawno zamkniętego kufra gdzieś na strychu i odkopać starocie, które spece od marketingu (ubrani w białe fartuchy) wcisną nam za kolosalne pieniądze. Jak już jestem przy tym temacie: ciekawe kiedy Intel wyciągnie ze swojej szafy trupa zwanego Havokiem... pewnie czeka z tym na Larrabee... Jako, że wszystko będzie opatentowane to będzie wydajne i Intel (jak zwykle) zmusi twórców gier do pisania pod jego dyktando, co będzie z kolei mulic na GT300 i Radkach 5999. Jak zwykle.

Odnośnik do komentarza
Udostępnij na stronach

nVidia wystartowała z huczną reklamą' date=' dlatego to nVidia wygra. Sad but true. [/quote']

Kto pierwszy ten lepszy. I dlatego VooDoo padło, pozwoliło się wyprzedzić nVidii i ATI w temacie obsługi shaderów i ... resztę znacie.

Jednakże nie uważam, że nVidia "wygra". AMD też jako pierwsze miało zintegrowany kontroler, 64 bity i gdy Intel męczył się z Net Burstem oni mieli o 1/3 krótszy proces dzięki czemu były o tą 1/3 wydajniejsze, a jak pamiętacie ludzie dalej kupowali Pentiumy 4. Kasa, reklama i przekupywanie (promocjami itp) sprzedawców ZAWSZE decydowały o tym co będzie na topie sprzedaży a co nie.

Odnośnik do komentarza
Udostępnij na stronach

Gość
Ten temat jest zamknięty i nie można dodawać odpowiedzi.
×
×
  • Dodaj nową pozycję...