Przem0l Posted February 4, 2010 Report Share Posted February 4, 2010 2 czy 4 rdzenie? Choć wciąż pocieszam się, że jestem szczęśliwym posiadaczem 4 rdzeni Intela, które doskonale się podkręcają to jednak od jakiegoś czasu odczuwam pewien nie dosyt. Ten niedosyt jest spowodowany faktem, że wciąż niewielu twórców oprogramowania zadaje sobie trud aby wykorzystać 4 wątki. Z reguły mamy do czynienia z postępem jaki dokonał się po wejściu architektury x86, czyli z obsługą 1 procesora. Biorąc pod uwagę to, że mamy rok 2010, pierwsze dwurdzeniówki weszły na rynek ponad 5 lat temu a temat dotyczy profesjonalnych firm, ciężko jest nie odnieść wrażenia, że są to umyślne działania a nie brak wiedzy czy technologii. Nie mam zamiaru bawić się w udowadnianie za pomocą screenów czy tak jest czy też nie, wystarczy że każdy z Was uruchomi menedżera zadań bądź konsolę wydajności i zapisze sobie do logu obciążenie procesora podczas całodziennej pracy komputera. Tak się akurat składa, że dopadł mnie wirus, naturalnie nie posiadam oprogramowania antywirusowego, ponieważ ono samo z siebie powoduje utratę wydajności co w moim mniemaniu stoi na równi z wirusami. Owy szkodnik przyszedł do mnie nie wraz oprogramowaniem z wątpliwych źródeł bądź ze stron o tematyce bardzo rozrywkowej, lecz przyniósł mi go mój własny rodzony brat na MP4. Wczoraj postawiłem system na nowo, zaktualizowałem go i dziś mam powtórkę z rozrywki. Jak widać zaszył się gdzieś na dysku i co poranek przypomina o swoim istnieniu. Przypomniwszy sobie czasy, w których NOD32 był szanowanym antywirusem, ściągnąłem 30 dniową wersję, zaznaczyłem najwyższe czepialstwo, wyłączyłem niski priorytet zużycia CPU i dałem FIRE . Jakież było moje zdumienie gdy okazało, że 3 moje rdzenie leżą odłogiem. Jeden poci się i bardzo chciałby się podzielić pracą z kolegami ale niestety Eset nie przewidział takiej opcji. Więc muszę czekać jak na zbawienie aż wreszcie przemieli te 500 GB śmieci. W tym czasie dysk pracuje bez wytchnienia a przecież wystarczyło by użyć jakiegoś fikuśnego buforowania i ładować partycję RAWem paczkami po tyle GB ile ma się pamięci RAM. Więc patrzę sobie jak z 8 GB (wyłączony swap) 7.5 jest nietknięte, na XP 64 bit SP2. Naturalnie można po części winić za to recenzentów, którzy podniecają się gdy dany antywirus zużywa dosłownie pojedyncze bajty i srogo karzą te rozwiązania, które nie przejmują się takimi błahostkami. Dlaczego RAW? Ponieważ wtedy powinien szybciej zeskanować dysk niż latać po całej partycji w poszukiwaniu kolejnej z 10.000 części pofragmentowanego pliku, który jest z kolei jednym ze 100.000 pofragmentowanych plików czekających na skanowanie. To widać gdy zużycie CPU spada do 2-4% podczas skanowania i gdy tylko program trafi na ciągły zbiór plików to wzrasta do 25%, czyli 100% dla jednego rdzenia. Podczas odczytu RAW czytałby bez analizy bloki po np 4-6 GB wrzucając je do RAMu, i wtedy szukał w nich plików i je analizował, tak jak choćby robią programy do odzysku danych. W końcu i tak musi przeorać cały dysk. Można odpuścić sobie przepastne obrazy płyt i zalecić użytkownikowi wstępną defragmentację dysku, ale to drugie wynika bardziej ze standardowej obsługi i konserwacji systemu, czyli czegoś co użytkownik i tak powinien robić. No ale to wymaga zmiany podejścia do ... choćby piractwa, o czym jest kolejny akapit. Powtarzałem to wcześniej i będę robił to dalej: nie ma takiej opcji aby kogoś nie było stać na kilka GB RAMu gdy stać go na cały zestaw plus liczne licencje, choćby na system operacyjny i liczne oprogramowanie użytkowe po gry. A jak ktoś piraci to producenci softu nie powinni się nimi przejmować tylko założyć, że każdy ma przynajmniej 4 GB pamięci i basta. Przecież właściciel słabszego kompa i tak nie zapłaci za licencję ani jego produktu ani 50 innych programów, które znajdują się na dysku. Z tego samego powodu należy przyjąć, że każdy ma przynajmniej 2 rdzenie fizyczne. I tu dochodzimy do sedna sprawy: "przynajmniej 2 rdzenie fizyczne". Tu mam na myśli wszelkiej maści procki przynajmniej Core 2 Duo/DC oraz X2. Ok, co mnie powinny obchodzić te modele skoro sam mam Core 2 Quad śmigając jak trzeba z 3.8 GHz? A no obchodzą, tak samo jak Was powinny. Skoro zdecydowana większość aplikacji nie wykorzystuje nic poza 1 rdzeniem to po co płacić za więcej niż 2? Większą wydajność uzyskacie z 2 szybszych niż 3 lub 4 wolniejszych, ponieważ niewykorzystane rdzenie w ogóle nie będą zajmować się tym zadaniem. Sprawa jest chyba oczywista. Archiwizatory jak RAR czy 7Zip wykorzystują 2 rdzenie, z czego ten drugi (mniej powszechny choć lepszy i co dziwne darmowy) poradzi sobie z każdą ilością rdzeni i pamięci, które można spotkać w domowych komputerach. Niektóre, powtarzam: niektóre gry też potrafią spożytkować więcej niż 1 rdzeń ale i tak w zdecydowanej większości z nich temat ogranicza się do 2. Do tego należy odróżnić pełne zużycie 2 rdzeni (każdy na 100%) od szarpania obu rdzeni, z czego sumarycznie nasz C2D bądź X2 obciążony jest w 50%, co w sumie jednoznaczne z obsługą tylko 1 rdzenia. Sam system operacyjny nie potrafi nic ponad to co widzimy w codziennych aplikacjach: jeden rdzeń i basta. Czy to będzie XP, 7 czy systemy serwerowe: ilość rdzeni nie robi na nich żadnego wrażenia. Jeszcze nie spotkałem się aby proces notepad.exe zużył mi więcej niż 25% CPU, tak samo usługi sieciowe svhost.exe czy explorer.exe. Tak samo jest z pakietami Office, mam na myśli zarówno 2007 i starsze jak i Open Office 3. Przy eksporcie do PDF większego pliku można się zdrzemnąć, ponieważ twórcy nie znaleźli czasu aby zadbać o wsparcie dla procków wytworzonych po 2005 roku. Doskonale wiecie, że razem z Ralliartem pracujemy w międzynarodowej korporacji jako informatycy. Więc pewnie zastanawiacie się, dlaczego z taką łatwością odpuszczam sobie wsparcie dla starych komputerów skoro firmy robią wszystko aby ich nie zmieniać. Tak się składa, że jestem już przyzwyczajony do widoku nowego antywirusa, który na starcie pochłania 80-100 MB pamięci gdy komputer ma jej 64 bądź 128 MB oraz często 100% mocy biednego Pentiuma 3. Oczywiście kompy pracują w domenie. To nie robi na mnie żadnego wrażenia. Za to dziwi mnie dlaczego firmy tworzące soft antywirusowy nie widzą potrzeby podziału rynku na klientów z mocniejszym i słabszym sprzętem. Praktycznie wszystkie znane mi (czyli ok. 20) antywiry napisane są pod jeden model komputera. Co szkodzi producentowi aby we właściwościach aplikacji można było ustawić opcje wydajności? Albo niech sam program z łaski swojej rzuci okiem na konfig i zapyta się czy może go zarżnąć wykorzystując dostępne zasoby aby zakończyć skanowanko 20-30x szybciej niż w przypadku standardowego podejścia do tematu? Piszę o antywirusach, ponieważ od 2 dni jestem na nie skazany, choć i tak nie wykrywają mi wirusów, o których wiem że są bo widzę skutki ich działalności. To się tyczy prawie całego dostępnego softu. To co się wyróżnia to ... gry komputerowe. Ich twórcy zauważyli, że ich klienci mają bardzo różnorodny sprzęt: od rzęchów po wręcz hi-computing. Najczęściej można samodzielnie dokonać wyboru detali bądź pozwolić komputerowi aby zrobił to za nas. Dlaczego prawie żadna branża poza rozrywkową nie dostrzegła tego faktu i tych możliwości? Ciekawi mnie, że firma Adobe jakoś "potrafiła" zwrócić uwagę na ten problem i z problemu zrobić atut. Ponieważ różnorodność zestawów jest atutem PC a nie jego problemem. W niektórych produktach jak PS możemy wybrać ile pamięci może pożreć aplikacja, na których dyskach można położyć plik wymiany PS oraz wiele innych. Co prawda przysłowiowego szału nie ma ale lepsze to niż nic. Czy twórcom softu na prawdę nie chce się pomóżdżyć odrobinkę bardziej? Nie chodzi mi o wzrost kosztów, bo znając życie to jest bardzo chętnie wykorzystywany argument. Koszty dla klienta wcale nie muszą wzrosnąć jeżeli firma zacznie rywalizować. Ale jak widać mamy tu chyba zmowę producentów, żeby dany rodzaj oprogramowania po prostu był zacofany technologicznie. Bo jak inaczej wytłumaczyć ciągłą optymalizację algorytmów pod kątem wydajności ale ze stanowczym brakiem wsparcia dla chociaż 2 rdzeni? Jak dla mnie, czyli klienta, to wzrost kosztu takiego oprogramowania o powiedzmy 10-15% (bo rozwinięty zostanie tylko 1 moduł z wielu) będzie niezauważalny za to efekty jego pracy jak najbardziej. To da się zrobić w przypadku każdego rodzaju oprogramowania. I dlatego gdybym obecnie kupował sprzęt to za te same pieniądze jakie wydałem na Quada + dobry zasilacz (Chieftec 750W dla stabilnego OC) i chłodzenie to wolałbym kupić nie Core 2 Quad ale najszybsze Core i5. Po co? Ponieważ zmieściłbym się w tej samym koszcie a miałbym 2x 3.6 GHz bez podkręcania, plus zwiększenie wydajności zegar w zegar, lekki zapas OC i zdecydowanie niższe zużycie prądu. A wirtualizacja itp? Eee tam, to robota dla HT, które posiada ten procesor. I tak więcej zyskam na czystych megahercach niż wielu rdzeniach, które leżą odłogiem. Co prawda nie zamienię swojego kompa na ten przed chwilą opisany a to z prostej przyczyny: sprzedam go pewnie za 2/3 ceny przez co będę 1/3 w plecy a to mnie nie bawi. Więc pozostaje mi OC + 4 fizyczne rdzenie i 8 GB RAMu, które kiedyś zostaną wykorzystane, czyli mam zestaw na dłuuuugie lata. Jak już mówiłem, kilka aplikacji to kropla w morzu potrzeb. Nastawienie twórców oprogramowania jest takie aby ich soft tylko działał, nie ważne jak i na czym. Dlatego nie ujrzymy w co drugim programie obsługi choćby SSE4 przez co dana aplikacja mogłaby dostać np. 2x kopa na różnych CPU przy tej samej częstotliwości. Link to comment Share on other sites More sharing options...
Micz Posted February 4, 2010 Report Share Posted February 4, 2010 Jedno mnie dziwi w tym co piszesz, że notepad nigdy nie brał więcej niż 25%. A dlaczego miał by brać więcej, 25% na tak prostą aplikację to też sporo. Po drugie czy to źle, że aplikacja bierze po 50% z każdego rdzenia, jak więcej nie potrzebuje? Na pewno lepsze to niż 100%z jednego, a 0% z drugiego. Co do reszty się zgadzam, wkurza mnie jak takie gg potrafi wziąć 50% z jednego rdzenia, po pierwsze co to za wielka aplikacja, żeby tak procka obciążać, a po drugie czemu przynajmniej nie podzieli tego na dwa procki. Link to comment Share on other sites More sharing options...
Przem0l Posted February 4, 2010 Author Report Share Posted February 4, 2010 Po co, po co... A no po to chcę aby KAŻDA usługa czy cząstka systemu operacyjnego mogła wykorzystać cały potencjał sprzętu by szybciej zakończyć swoje działanie. Jeżeli np. otwieram w notatniku film 700 MB, ponieważ interesuje mnie jego nagłówek to muszę czekać aż łaskawie 1 rdzeń się wyrobi. To mnie nie bawi. Tak samo nie bawi mnie czekanie na obrobienie dłuższego dokumentu w programie biurowym. To, że bardziej stawiam na zuzycie 1 rdzenia na 100% niż 2 po 50% to z prostego powodu: nie lubię gdy jakaś aplikacja rządzi mi się w systemie gdy nie daje nic w zamian. 1x 100% czy 2x 50% w obu przypadkach da nam 100%. I przez to wyciagnie tyle samo FPSów (w przypadku gier) lub skończy się tak samo szybko. Herce przekładają się na FLOPy, których nie będzie "więcej" gdy podzielimy zadanko na 2 rdzenie obciążone po połowie. Mógłbym zrozumieć, że zadanie jest podzielone na 2 rdzenie i "akurat" w tym momencie CPU nie jest wąskim gardłem dlatego sumarycznie nie mamy np: 150 czy 200%. Lecz niestety wystarczy podkręcić lub spowolnić procka i nagle zmienia się ilość FPSów przy nadal IDENTYCZNYM obciążeniu rdzeni po 50%. To nam zabiera wolne rdzenie, na które można zrzucić choćby kręcenie filmów we FRAPS czy inne rzeczy. Celem tego felietonu było wylanie łez na tworców softu, że nie chce im się optymalizować swojego softu pod dzisiejszy sprzęt. Oni wciąż żyją w czasach gdy nie było softu i ludzie cieszyli się, że w ogóle coś się pojawiło. Link to comment Share on other sites More sharing options...
Micz Posted February 4, 2010 Report Share Posted February 4, 2010 No tak tylko kto używa notatnika do takich rzeczy . Niby można, ale są do tego lepsze narzędzia. Oczywiście mogło by być lepsze, ale przed twórcami postawiono zadanie, napisać program do pisania prostych notatek i edycji prostych plików. To tak jak by narzekać, że w piancie nie da się wygodnie obrabiać plików o bardzo wysokiej rozdzielczości. Link to comment Share on other sites More sharing options...
Matti Posted February 5, 2010 Report Share Posted February 5, 2010 Na ile mi wiadomo to XP nie korzysta z wielordzeniowości. Aby Twoją frustrację nieco zredukować proponowałbym instalację 7 - przynajmniej MS tak podaje, że korzysta z wielu wątków. BTW. Kojarzę taką sytuację na początku pewnej gry (nie mogę przypomnieć jaka to, nie mogę oprzeć się wrażeniu, że RE 5) zalecany jest i7 a w testach okazało się, że nie potrafi nawet wykorzystać 4 wątków ( nie mówiąc o 8 w i7). Czysty marketing mający się nijak do rzeczywistości. Link to comment Share on other sites More sharing options...
Micz Posted February 5, 2010 Report Share Posted February 5, 2010 Tak na marginesie, żeby nie mylić pojęć wielowątkowość != wielordzeniowość. Wielowątkowość aplikacji można uzyskać nawet na jednym rdzeniu i odbywa się ona tylko w ramach jednego procesu. Więc powinniśmy pisać o wielordzeniowości, a nie wielowątkowości. Napisanie aplikacji wielowątkowej jest banalne w Javie, czy C#, ale żeby korzystała z wielu rdzeni to ja osobiście nie wiem jak się to robi, choć też się tym aż tak nie interesowałem. A tu krótki artykuł z porównaniem wielowątkowości i wielordzeniowości. http://elektronikab2b.pl/biznes/2693-wielowatkowosc-a-wielordzeniowosc Link to comment Share on other sites More sharing options...
Rogal Posted February 5, 2010 Report Share Posted February 5, 2010 Powiem szczerze - tylko 4 jajka. Bez względu na to, czy wsparcie jest czy go nie ma. Kiedyś i tak skończy się biznes na 2 rdzeniach i przejdzie się na 4 jajka...czemu zatem mam płacić za dobre rozwiązanie później, skoro teraz będzie ono jak w sam raz? Link to comment Share on other sites More sharing options...
Micz Posted February 5, 2010 Report Share Posted February 5, 2010 Odpowiedź na twoje pytanie jest prosta, bo później będzie taniej, a tera i tak nie wykorzystasz. Link to comment Share on other sites More sharing options...
Matti Posted February 6, 2010 Report Share Posted February 6, 2010 @ Micz Rzeczywiście niezłą wpadkę zaliczyłem. Kojarzyło się dla mnie, że np. 920 ma 4 rdzenie i 8 wątków, z tego nieodpowiedni wniosek wyciągnąłem. Mówiło się, że DX11 miał być pewnym przełomem w wykorzystaniu wielordzeniowości CPU, łatwiejsze pisanie gier. Ale jak widać na razie nie potwierdza się to. Link to comment Share on other sites More sharing options...
Ralliart Posted February 6, 2010 Report Share Posted February 6, 2010 Jako posiadacz i7 z czystym sumieniem mogę stwierdzić, że większość obietnic programistów to na razie mrzonki i puste obietnice. Ba niektórzy z nich nie potrafią nawet napisać aplikacji która racjonalnie korzysta z tego co dostaje... Także sami widzicie, że od obietnic do spełnienia życzeń daleka droga. Link to comment Share on other sites More sharing options...
Przem0l Posted February 8, 2010 Author Report Share Posted February 8, 2010 Sprawa jest prosta: na rynku nie ma softu pod wiele rdzeni. "Nie ma" oznacza IMHO "niezauważalnie mało". A to oznacza brak motywacji dla firm aby zaczęły konkurować na tym polu. Czyli po prostu im się nie chce. Nie ważne do czego się dotknę to i tak mój Quad pracuje na 25% obciążenia. Czasami zdarza mu się nieco wysilić i przekroczyć ten próg, ale powiedzmy sobie szczerze: ile roboczo-sekund/minut w ciągu tygodnia wykorzystujecie wszystkie rdzenie? W moim przypadku wygląda to tak (w ciągu tygodnia, a spędzam sporo czasu przed kompem) 4 rdzenie na 100% 0 minut; 3 rdzenie na 100% 0 - kilka minut; 2 rdzenie na 100% 10 - 20 minut, max pół godziny; 1 rdzeń na 100% kilka - kilkanaście godzin (Combat Arms); 1 rdzeń na kilka procent: cała reszta. A wykorzystanie RAMu? 2-8 GB: w zależności od wielkości dysku w RAMie, nic innego nie pożera mi powyżej 1.5-2 GB, używam najczęściej przy kompresji plików i edycji grafiki; 0-2 GB: cała reszta czasu. Jako pocieszenie traktuję fakt, że za 5 lat statystyki może będą inne . Mój zestaw (jak się nie zepsuje) tyle wytrzyma i będzie wciąż dawał rady. Będzie mnie czekać tylko wymiana grafy i może PSU. Link to comment Share on other sites More sharing options...
Micz Posted February 8, 2010 Report Share Posted February 8, 2010 Gra bierze Ci 100% procesora? Dziwne, jak mi coś tak obciąży procesor to komp ledwo żyje. Chyba, że Ty mierzysz zużycie procesora jakimś innym programem niż menadżer zadań. Co do tego czy się twórcą oprogramowania nie chce to się nie zgodzę, po prostu nie opłaca im się, a dokładniej mówiąc z rachunku ekonomicznego wychodzi, że więcej zarobią nie pisząc takich aplikacji, a koszty przerzucą na klienta. Link to comment Share on other sites More sharing options...
Przem0l Posted February 8, 2010 Author Report Share Posted February 8, 2010 100% jednego rdzenia, czyli 25% całości. Ta gra jest tak kiczowato napisana jak Archlord - też wpieprzał cały rdzeń. Na pewno jest jakaś funkcja, dzięki której proc wchodzi w ciągłe zużycie i te leszcze ją uruchomiły. Swego czasu umieściłem screena jak windowsowy pasjans (spider.exe) po zakończeniu gry zużywa 100% rdzenia. Wystarczy wybrać opcję NIE i nagle CPU jest zarżnięte. Podobnie jest w przypadku Excela, ale w przypadku CA czy Archa wystarczyło odpalić grę aby rdzeń był zajęty. Ale to jest nie ważne . Martwi mnie podejście "poważniejszych" producentów softu. Link to comment Share on other sites More sharing options...
Rogal Posted February 9, 2010 Report Share Posted February 9, 2010 Idealne rozwiązanie na te wszystkie bolączki wiązało by się z odłamaniem kilku ludzi, którzy będą w stanie zaproponować coś innowacyjnego...teraz z dziada-pradziada wszyscy uczeni są wg zasady "jak się kompiluje i działa tak jak powinien to jest dobrze", a wszystkie niedociągnięcia są poprawiane w łatkach. Wszystko byleby tylko ściągnąć coś kasy. Wszystko ok, tylko że za te 5 lat firmy robiące soft zaczną doceniać potęgę 4 rdzeni (albo koniec ery 2 jajek) i przeskoczą od razu na nie, zostawiając w tyłku te na dzień dzisiejsze dobre 2 rdzenie. Dlatego 7 Zip jest tutaj dobrym przykładem, jak każdy producent softu powinien podejść do tego trudnego tematu -zagospodarować każdą ilość rdzeni na tyle, na ile jest to tylko możliwe. Co do tych 100% CA - to wszystko prawda. O ile w wersji beta/RC było wszystko w miarę znośne, to kilka łatek później szlag trafił całość. No i tak zaczęła się kończyć moja przygoda z CA Link to comment Share on other sites More sharing options...
imic89 Posted February 10, 2010 Report Share Posted February 10, 2010 Program do Grafiki, Audio, Video - jak najbardziej powinny wykorzystywać tyle rdzeni ile jest. Gry - 1 rdzeń 100% lub wszystkie po 50% lub 25%... A co to za różnica? Większość osób ma i tak "wolny RAM" i "wolny dysk". Więc po co rozbijać program na rdzenie skoro to będzie to samo. (Mogę pie**** głupoty teraz więc mnie oświećcie). Programy "Inne" - Antywirusom mówię NIE jeżeli chodzi o optymalizację pod wszystkie rdzenie jeżeli chodzi o kontrole w czasie rzeczywistym! Podczas skanowania ok ale musi być + to co pisał Przem0l z RAM dyskiem. Z tym, że to i tak by wiele nie dało gdyż jak ktoś ma 2GB lub 4GB RAMu to same nowe Windowsy zjadają sporo pamięci... więc czy to by było takie wspaniałe dla zwykłego użytkownika? GG - to jest zło... namawiam wszystkich do zmiany na inny komunikator a najlepiej na założenie konta w sieci opartej o XMPP a Gadu-Gadu najlepiej jak by upadło.... Zamiast tych kilku rdzeni to bardziej bym się cieszył gdyby karty graficzne były zaprzęgnięte do liczenia i to w tym kierunku będą programiści dążyli... Jest temat tutaj na forum o CPU + GPU i to powinno być wytłumaczeniem wszystkich bolączek tutaj Link to comment Share on other sites More sharing options...
Micz Posted February 10, 2010 Report Share Posted February 10, 2010 Wykorzystanie GPU do obliczeń nie jest prosta sprawą i nie wszystko się da przyspieszyć za pomocą GPU, tylko te elementy programów które da się zrównoleglić. Link to comment Share on other sites More sharing options...
Rogal Posted February 11, 2010 Report Share Posted February 11, 2010 Gry - 1 rdzeń 100% lub wszystkie po 50% lub 25%... A co to za różnica? Większość osób ma i tak "wolny RAM" i "wolny dysk". Więc po co rozbijać program na rdzenie skoro to będzie to samo. (Mogę pie**** głupoty teraz więc mnie oświećcie).No nie do końca Imic, bo gdyby tak było, to pewnie większość userów nie osiągałaby zadowalających wyników w różnych grach. Dlatego optymalizacja pod wiele rdzeni jest jak najbardziej wskazana. Te bajki o wolnym RAMie i tak bledną przy porównaniu RAM Discu vs HDD, gdzie podczas jednej sesji jest o wiele większy zapis/odczyt. Nie jest zatem warto kombinować z partycją w RAMie? Ano jest. Tylko, że nie każdy wie jak i nie każdy ma na to czas i ochotę. Micz ma rację, jeżeli chodzi o kartę grafiki - ja rozumiem, że wszystko co może to powinno liczyć, ale zostawmy mimo wszystko jakiś podział - co ma wyświetlać złożone animacje/obrazy niech robi tylko to a co ma liczyć niech liczy. O ile przy zaawansowanych programach edycyjnych każda dodatkowa jednostka licząca się przyda, tak w segmencie "szarego" usera oznacza to brak optymalizacji pod więcej niż 2 rdzenie. Bo po co? Przecież zaprzęgliśmy w to grafy Ja czekam na efekt, czekam na aplikacje pisane przez programistów, którzy są gotowi wyjść poza schematy. No i poza marketing i politykę dostawców procesorów - jeżeli zacznie się wykorzystywać więcej rdzeni to poprawi się i jakość, a co za tym idzie nie będzie znowu zbyt częstych zmian sprzętu, "bo zaczynał mulić". Dlatego podoba mi się zestaw Przemola bądź Ralliarta - złożony z solidnym zapasem, więc w momencie kiedy optymalizacja pod x jajek stanie się standardem oni zmienią grafy i będą działać dalej. Link to comment Share on other sites More sharing options...
Przem0l Posted February 17, 2010 Author Report Share Posted February 17, 2010 RAM może i jest "powolny" ale co z tego gdy przedstawi się choćby same cyfry: czas dostępu na HDD: ok 9-11 ms. czas dostępu na SCSI: ok 2 ms. czas dostępu na RAM: 0 ms. O transferach nie ma nawet co wspominać z prostej przyczyny: tam gdzie igła będzie się motać czesając dysk w poszukiwaniu kolejnej z tysiąca części pliku, RAMulec znajdzie cały plik "ot tak". Oj, chyba jednak założę o tym temat jak kiedyś obiecałem... Link to comment Share on other sites More sharing options...
Rogal Posted February 18, 2010 Report Share Posted February 18, 2010 Imic przecież na Architekturze Systemów Komputerowych zasada działania RAMu była, włączając to w jaki sposób wyszukuje dane. Ten sposób jest naprawdę (brzydko mówiąc) zajebisty. Swojego czasu modne były RAM Disks, ale była to konstrukcja zrobiona z DDR I/rzadko z II, z bardzo uciążliwym zewnętrznym zasilaniem i kiepską stabilnością. Oczywiście mówię o segmencie "dla nas" a nie dla biznesmenów Link to comment Share on other sites More sharing options...
Recommended Posts