martedì 23 agosto 2016

Quali sono e come si usano le unità informatiche

A quanti mega va la tua connessione? Quanti giga pesa questo film? Di quanti tera è il tuo hard disk? 


Queste sono solo alcune di tutte le tipiche domande che oramai sentiamo ripetutamente ogni giorno. Ma che cos’è di preciso un mega, un giga o un tera?

Quali sono e come si usano le unità informatiche
|"E che differenza c’è tra bit e byte? Per rispondere a queste e ad altre domande del genere eccoti perciò un apposito articolo che cercherà di chiarirti le idee su quali sono e come si misurano le unità informatiche. 
Proprio come avviene per le altre grandezze fisiche, quali la lunghezza o la massa, anche l’informatica ha le proprie unità di misura.

A differenza però del metro e del chilogrammo, utilizzate come base rispettivamente per la lunghezza e per la massa, nel mondo dell’informatica l’unità di misura fondamentale non è calcolata su base 10, come avviene appunto nel sistema metrico decimale, bensì su base 2.

Questo perché, nell’informatica, l’unità di misura fondamentale non è altro che il bit (termine che deriva dalla fusione delle due parole inglesi binary digit (in italiano, cifra binaria)) che a sua volta non rappresenta altro che l’unità elementare dell’informazione che può essere trattata da un qualsiasi computer (proprio perché i circuiti digitali, mediante i quali viene assemblato un qualunque computer, sono in grado di capire solamente due valori: 0 (zero), ovvero, assenza di tensione, ed 1, ovvero, presenza di tensione).

Fonte: http://www.informaticapertutti.com

Nessun commento: