Sākumlapa › Forumi › Citas tēmas › Off-topic › Windows optimizācija iesācējiem – 3. daļa (upd.2)
create part primary size=4
tad instalēju no standarta cd
tiku līdz vietai kur jāizvēlas uz kura diska instalēt
izvēlējos d:
enter
un winda piedāvā formatēt (kur iespēja “leave” nav)
bet man ir aizdomas ka šī darbība netika īsti precīzi veikta jo pēc komandas enter cmd logā tika uzrakstīti pieļaujamie saīsinājumi ar to nozīmēm nevis format is compleate vai kas tamlidzigs
ja disku gatavoju ar win live cd
Bet var formatēt no disk managment – tur var norādīt klastera izmēru.
Vēl viens risinājums ir izņemt disku, piespraust to pie cita kompja, kuram jau ir virsū windows un noformatēt disku caur disk managment.
ob1 piedāvātais testa variants netestē sistēmu ar dažādiem klāstera izmēriem.
NTFS mazus failus glabā MFT nevis kur pagadās.
Uz ātru roku iemetu jautājumu googlei…
Choosing a cluster size. Choose a volume’s cluster size based on the average type and size of file that the volume will store. Ideally, the volume cluster size is evenly divisible by the average file size (rounded to the nearest kilobyte). This ideal cluster size minimizes disk I/O transaction overhead and wasted disk space. For example, suppose you’re creating a new NTFS volume that will store several files of about 6KB each in size. Format the volume with a 2KB cluster size, because the average file will fit evenly into three clusters. What if the average file size is about 16KB? In that case, a 4KB cluster size will provide the best performance, because it’s evenly divisible into 16KB and requires only half the cluster allocations that the same file would require using 2KB clusters. Why not take this process one step further and use an 8KB or 16KB cluster size? These values are valid alternatives and might yield additional performance benefits; however, using cluster sizes greater than 4KB has several potentially negative side effects. For example, when you use cluster sizes larger than 4KB, disk-defragmentation utilities can’t defragment the volume, you can’t use NTFS file compression on the volume, and the amount of wasted disk space increases because user data files stored on the volume don’t end evenly on cluster boundaries.
Next rakstu vajadzētu par sistēmas klona, jeb ghost veidošanu. Slinkums pāšam rakstīt, neesmu vairs tehniķis 🙂
1) hmm, būtu interesanti uzzināt ko tas ATTO tests īsti testē, tavuprāt.
2) “NTFS mazus failus glabā MFT nevis kur pagadās.” – interesanti… kādu linku iemetīsi par šo?
3) “Why not take this process one step further and use an 8KB or 16KB cluster size? These values are valid alternatives and might yield additional performance benefits” – nu it kā te ir skaidri pareikts, ka lielāks klasters var dot ātruma pieaugumu.
4) “when you use cluster sizes larger than 4KB, disk-defragmentation utilities can’t defragment the volume” – tas attiecas uz veciem win. Paskatījos – izrādās tas links ir par Windows NT Server 4.0. Kopš tā laika daudz kas mainījies… un defragmentācija šobrīd strādā uz liela klastera.
5) Paldies, par postu. Man ne prātā nenāca, ka kāds varētu nezināt, ka lielāks klasters var uzlabot ātrumu… uzcepšu rakstu par to…
🙂
foxsk8, par klonēšanu tuvākā laikā netaisos rakstīt. Pats izmantoju Nero Backup. Es domāju, ka par klonēšanu šeit daudzi varētu uzrakstīt.
Tak palasi par NTFS netā… neesi slinks.. iegooglē.
Runājot par defragmentāciju… šķiet, ka iebūvētais winduļa štrunts diezgan ilgi nejēdza ka var būt cita izmēra klāsteri.
Runājot par klāstera izmēru…
Ja nemaldos, tad pie lasīšanas operācijas nekad nelasa vienu, bet uzreiz vairākus klāsterus.
Priekš diska tas izskatās apmēram tā ka dajoš datus atmiņā no x cilindra, y celiņa, z sektora emmm tik un tik.
Bet visur notiek kešošana un ja reiz lasa tad lasa uzreiz ar rezervi nevis pisas pa kapeikām.
Da palaid uz tā paša 4kb varianta kopēties lielu failu no diska uz diska un paskaties pret ko atduras ātrums…
Tiesa ir viens cits teorētisks moments… lielāks klāsters dos mazāku fragmentāciju. Bet, mūsdienās, ja viens disks nav pārpildīts tad fragmentācija būtiski neietekmē sistēmas kopējo ātrdarbību.
Visa cita starpā rekomendēt lietot iebūvēto XP defrag tūli nav īsti labi, jo jams tikai čakarē visu to padarīšanu.
Pie kam, kas tad rada to lielāko fragmentāciju? Visādi tempi. tempiem var atvēlēt vai nu ram disku vai atsevišķu particiju, bet mūsdienās tas viss ir kaķu asaras.
Visas šīs izvirtības kaut ko deva senos laikos, kad dzelži bija lēni. Tagad tas efekts ir mērāms 0.0x%
Nav nekāda teorētiska pamatojuma kurš būtu apstiprināts ar faktiem (testi kur?) ka dalot VIENU disku x particijās var gūt kaut kādu ieguvumu veiktspējā.
Bez testiem, kurus tu tā arī neuzrādīji viss šis ir pliks bleķis.
A runājot pa testa tūli… ja es pareizi sapratu, jams jau tikai raksta uz diska pa fragmentiem ar x izmēru, dēļ HDD un OS buferiem tam nav nekāda sakara ar reālo dzīvi un klāstera izmēriem. Kā jau teicu… uzliec kopēties 4GB failu ar TC no diska uz disku un palūri uz ātrumu.. tur būs pofig kāds tev tas klāsteris.
Vecs, bet interesants raksts krieviski
Ok.. neatceros par kādu ntfs versiju tur bija runa un pieņemu ka šobrīd kaut kādas nianses ir mainījušās, bet pamatideja ir tā pati.
Un pat šai rakstā kura laikos dzelži nebūt nebija tie ātrākie tiek norādīts, ka ātrdarbības teorētiskais ieguvums ir niecīgs.
Tālāk…klāstera izmērs un faili.
Loģiski ka daži GB +/- mūsdienās vairs nevienu neinteresē… tā pat kā disku/mapju kompresija tā ka uz to vispār var nospļauties.
Runājot par to, ka mūsdienās lietotāji pamatā izmanto lielus failus…
it kā…. :>
Īstenībā nav gluži pareizi…
Jā.. lietotāji skatās filmas, bet tur nav nepieciešamības pēc kaut kāda superātra diska un nez kā vēl.
Š ķiet, ka pat liela daļa lielas ietilpības disku ir ar 5400rpm.
Daudz vairāk grabināšanās gar disku sanāk lietojot pārlūku. Tad visu laiku tiek lasīti/rakstīti MAZI faili.
Un te vairs nav nozīmes ne fragmentācijai ne ar klāstera izmēram.
Tā ka… mans viedoklis ir tāds, ka nav neiespējams ar klāstera izmēru kaut ko paātrināts taču nav nekādu teorētiska pamatojuma kurš apstiprinātu šo pieņēmumu un no tavas puses arī nav testa rezultātu kurš to pierādītu.
Tevis dotais “tests” vienkārši MELO, jo diska ātrdarbība pārejot no 4kb uz 64kb klāsteri reālā dzīvē nedubultojas.
Objektīvs tests kuram varētu ticēt būtu sistēma ar dažāda izmēra klāsteriem un tests kurā redzams ka random mazu failu lasīšanas/rakstīšanas ātrums atšķiras uz dažādiem klāstera izmēriem, pie kam ar nosacījumu ka paralēli notiek citas darbības ar disku. (tā tak ir ikdiena ka vaļā ir torrents, interneta pārlūks un cilvēks virina mailus un darina opicu).
Lai to pārbaudītu nav pat vajadzības instalēt OS uz tā diska. Vienkārši ar partišen madžiku nocērpam brīvo vietu, uztaisām disks ar dažādiem klāstera izmēriem sataisām tur failus (pasākumam jābūt fragmentētam lai maksimāli pietuvinātos dzīves realitātei.. tb failus nevar vienkārši uzkopēt uz tukša diska, tiem jābūt izmētātiem pa visu disku). Nu kaut kā tā 🙂
Cienu tieksmi kaut ko uzlabot, bet gribētos tam visam redzēt pamatojumu ciparu formātā 🙂
MFT izmērs ir atkarīgs no klāstera izmēriem… a MFT tiek glabāts atmiņā.
Tiesa nav ne jausmas cik tas var ietekmēt veiktspēju.
No savas pieredzes varu teikt, ka lielais klasters ievērojami palielina sistēmas ātrdarbību. Nepārbaudītus datus es rakstos nepublicēju.
Š obrīd strādāju pie papildus testiem, kad būs gatavi rezultāti – iepostēšu.
Vai tu arī nevarētu pamatot savu viedokli ar testu rezultātiem?
Š ķiet, ka ar to pašu partišin magicu var mainīt klāstera izmērus nahodu :>
Tev ir jāpamato SAVS apgalvojums, nevis MAN jāpamato savs skepticisms ar testiem, jo apgalvojumu autors tos nav izveicis.
Pēc tavas loģikas, tiem kuri netic spoku esamībai ir jāpierāda, ka spoku nav… nevis spoku faniem jāpierāda ka spoki ir…
Tu taču negribi teikt ka tas, ka nevar pierādīt spoku neesamību pierāda spoku esamību ? 🙂
tevis piedāvātais atto disk benchmark nav īstais instruments ar kuru var salīdzināt sistēmas ātrdarbību atkarībā no klāstera izmēriem.
Š o tūli parasti izmanto lai novērtētu diska firmwari un kešu. Š iem testiem nav NEKÄ€DA sakara ar klāsteriem un to izmēru ietekmi uz sistēmas atsaucību/ātrdarbību.
No diska.. fiziski.. nekad netiek lasīts pa 4kb fragmentiem.
Hmm, sameklēju vēl vienu testu, kas dod līdzīgus rezultātus:
(ceru, ka ar komandrindu māki strādāt)
Turpinu strādāt pie nopietnākiem testiem…
Tavam “testam” tika izmantos nepareizs tūlis, nepareizā veidā un izdarīti aplami secinājumi.
Tu apgalvo, ka pāreja no 4kb uz 64kb klasteri dubultos sistēmas ātrdarbību… nu bet tie tak ir klaji meli! Tā tas nav un par to var pārliecināties jebkurš kuram nebūs slinkums čakarētiet un par maz veselā saprāta lai līdz tam nonāktu deduktīvā ceļā!
Iesaku pašam palasīt pa to tūli kuru tu izmantoji kam jams ir domāts un kā viņu izmanto!
Tu mēģini par katru cenu pierādīt savu taisnību, vai arī diskutē tāpēc, lai uzzinātu kā ir patiesībā?
Kas attiecas uz ATTO tūli, tad ražotāja apraksts ir šāds:
The ATTO Disk Benchmark application was designed to be a performance measurement tool. Measure your storage systems performance with various transfer sizes and test lengths for reads and writes.
Several options are available to customize your performance measurement including queue depth, overlapped I/O and even a comparison mode with the option to run continuously. Use ATTO Disk Benchmark to test any manufacturers RAID controllers, storage controllers, host adapters, hard drives and SSD drives and notice that ATTO products will consistently provide the highest level of performance to your storage.
Un kaut arī šis ir trešais Ob1 optimizācijas raksts, nevienu no viņa ieteiktajām darbībām es neveicu instalējot XP. Bet nez kāpēc man words tāpat kā Ob1 (ko viņš nepārtraukti cenšas iebāzt acīs un uzskata par kaut ko debešķīgi neiespējamu) atveras 0.01 sekundē.
Bet kā jau vienmēr, katrs izdara savu izvēli 🙂 Nav jau tā ka Ob1 nezinātu ko saka, bet dažreiz liek stipri šaubīties.
Preses relīzes