Tietokoneet nopeutuvat, sovellukset toimivat meille kuitenkin helpommin, kun on kyse vuorovaikutuksesta Windows näyttää siltä, että sillä ei ole väliä, mikä on meidän PC:mme sisu, se näyttää aina kulkevan samaa tahtia. Onko se jotain yksinomaan Redmond-käyttöjärjestelmälle? Onko se laitteiston kannalta huono optimointi vai onko taustalla tekninen syy? Selitämme sen sinulle.
Normaali asia ja yksinkertaisen logiikan mukaan on ajatella, että kun meillä on enemmän laskentatehoa tietokoneessa, ohjelmat kuluttavat yhä vähemmän resursseja. Huomaamme kuitenkin usein, että näin ei ole ja että optimoinnin puute voittaa muita asioita. Onko kyse ohjelmoijien laiskuudesta tai epäonnistumisesta, että siihen johtavat sarja teknisen tason päätöksiä tai väistämättömiä olosuhteita?
Windows kuluttaa aina samoja resursseja kuin PC
Meidän on lähdettävä siitä, että nykyisissä käyttöjärjestelmissä eri prosessien hallinnasta vastaa sama, eivät sovellukset, ja siksi ne eivät vain päätä missä ne suoritetaan ja missä järjestyksessä, vaan myös mitkä olosuhteet tekevät niin, ja tässä päästään kahteen eri tapaan käyttää laitteistoresursseja, sekä itse järjestelmässä että sovelluksissa.
On kuitenkin yksi, joka on suorituskyvyn kannalta painajainen ja joka muuttaa tietyt prosessit tietokoneemme voiman todellisiksi vampyyreiksi huolimatta siitä, että ne eivät todellakaan vaadi niin paljon tehoa toimiakseen, ja se on, että tietty prosenttiosuus kapasiteetti on osoitettu heille. käsittelyä. Riippumatta siitä, onko meillä tehokas huippuluokan tietokone vai vaatimaton MiniPC. Esimerkiksi Windows 11:ssä on vakiona virtualisointiin perustuva turvallisuus, ominaisuus, joka tarjoaa melko vähän kotikäyttäjille, mutta pystyy kuluttamaan 5 % suorituskykyä riippumatta siitä, käytätkö sovellusta Celeronissa vai Celeronissa. Xeon, sillä tehoerolla, jota tämä tarkoittaa.
Miksi nämä toimenpiteet toteutetaan?
Todellisuudessa on mahdotonta ennustaa ohjelman vaatimaa suorituskykyä, koska meidän on otettava huomioon, että se riippuu kunkin käskyn latenssista ja sitä on mahdotonta ennustaa, koska emme tiedä missä se löytää vastaavat tiedot. Onko sillä tiedot jo rekistereissä vai sen puuttuessa jollain prosessorin tietovälimuistin tasolla? On otettava huomioon, että prosessorin kellojaksoissa mitattu latenssi vaihtelee käskykohtaisesti tiedonhakujakson mukaan.
Siksi tämän lähtökohdan ja olemassa olevien laitteistokokoonpanojen valtavan määrän kanssa ymmärretään täydellisesti, että järjestelmäprosesseissa käyttöjärjestelmä riippumatta siitä, onko se Windows, Linux tai mikä tahansa muu, vie tietyt prosenttiosuudet kiinteästä käytöstä prosessorin tehosta. Lisäksi tämä tehdään konsoleissa, ja vuosien mittaan näitä käyttöprosentteja leikataan, jotta peleihin saadaan lisää tehoa. Emme kuitenkaan saa unohtaa, että tässä tapauksessa puhumme suljetuista järjestelmistä ja tilanne on täysin erilainen kuin tietokoneiden tilanne.
Lisäytimiä käyttöjärjestelmälle?
Kaikki tämä vie meidät yhteen niistä uutuuksista, joita olemme nähneet toteutettuna kahden viimeisen sukupolven aikana Intel Ydinprosessorit, vaikka eivät kaikissa malleissa. Puhumme ns. E-Coreista, jotka on paperilla suunniteltu taustatehtäviin. Heille osoittaminen ei kuitenkaan ole automaattista. Toisin sanoen käyttöjärjestelmä etsii esimerkiksi 2 % ytimen tehosta, joka on vapaa suorittamaan avainprosessia.
Käyttöjärjestelmän tapa suorittaa prosesseja säikeissä prosessori on samanlainen kuin löytää mahdollisimman paljon tilaa laatikosta tavaroiden sijoittamiseen. Se ei aktivoi toista ydintä, jos olemassa olevia ytimiä on vielä jäljellä. Seuraukset? Huolimatta siitä, että E-coret ovat hyvä idea tämän tyyppisiin tehtäviin, Windows voi jättää sen huomiotta, koska käyttöjärjestelmän itsensä silmissä sillä on käytettävissä tietty määrä suoritussäikeitä, se ei tietää sen tarjoaman voiman. osallistua jokaiseen.