Hvor mange megabyte i en gigabyte?

Det vigtigste er det Mængden af information kan måles i både binære og decimalsystemer. Derudover er der forskellige standarder for enheder til måling af mængden af information. Dette medfører forvirring og gør det svært at bestemme præcis, hvor mange megabyte der er i en gigabyte.
Faktisk præfikser "kilo", "mega", "giga" osv. anvendes i det internationale system af enheder (SI) og betegner antallet af beføjelser ti. Derfor, hvis du tænker logisk, skal der i en gigabyte være 1000 megabyte. Men hvorfor er dit operativsystem sikker på, at der er 1024 af dem?
Faktum er det Udviklere af mange moderne operativsystemer bruger standardhukommelsen JEDEC 100B.01 (standarden for Joint Engineering Council forelektroniske enheder), hvorefter de præfikser, der accepteres i SI-systemet, ikke kan betegne en effekt på ti, men en effekt på to (dvs. standarden bruger ikke et decimaltalsystem, men en binær). Derfor vil en gigabyte ved standard JEDEC være lig med 1024 megabyte.
Og producenter af harddiske og flashdrev bruger Standarder vedtaget af Den Internationale Elektrotekniske Kommission (IEC). Ifølge disse standarder anvendes SI-præfikser til at angive grader af tallet ti. Derfor bør en gigabyte være 1000 megabyte og ikke mere megabyte. GOST 8.417-2002, der regulerer navne på måleenheder i Rusland, overholder også dette synspunkt.
Hvis det er vigtigt at understrege, at vi taler om et binært tal system, Det er nødvendigt at bruge ikke decimal-konsoller, men binære (binære). I dette tilfælde vil 1024 bytes være lig med en kibibyte, 1024 kibibytes til en mebibyte, 1024 mebibytes til en gibi-byte. Det er disse binære vedhæftede filer, der er vedtaget i IEC-standarden.
Problemet er det binære vedhæftede filer, selvom de er korrekte, men praktisk taget ikke bruges. For det første viste det sig historisk setdecimale konsoller bruges til at angive enhederne af mængden af information i det binære system. For det andet er binære konsoller simpelthen ikke meget euphonious.
Så det er usandsynligt, at en almindelig bruger støder påmåleenhed "gibibyte", fordi næsten ingen bruger det. Og hvordan kan han bestemme, hvor mange megabyte i en gigabyte i dette særlige tilfælde er 1000 eller 1024? Opmærksomhed bør betales til skriver en enhed til måling af mængden af oplysninger.
Ifølge forslaget fra IEC, hvis en binær kilobyte / megabyte / gigabyte er underforstået, skal notationen begynde med et stort bogstav, for eksempel GB, Gbyte, GB. Denne betegnelse indikerer, at gigabyten i dette tilfælde er 1024 megabyte. Hvis det første bogstav i notationen er lille (gbyte, gbyte, gb), mener vi en decimal ("kommerciel") gigabyte, der består af 1000 megabyte.
Som du kan se, Ved udpegning af måleenheder af informationsmængden er decimale SI-præfikser, som anvendes selv i de tilfælde, hvor IEC-standarden skal bruge binære præfikser. Derfor er det i gigabyte blevet 1000, så 1024 megabyte.
Det er nemmest at huske det Producenter af harddiske og flashdrev bruger "korrekte" gigabyte, decimaler. Og producenterne af RAM,videohukommelse, cd'er samt Microsoft og Apple (henholdsvis udviklere af OS Windows og Mac OS X) og softwareudviklere bruger binære gigabyte, der indeholder 1024 megabyte (hvilket det ville være korrekt at kalde gibibytes og mebibytes).














