È vero che la mancanza di notizie è di per sé una buona notizia? La tavoletta di pietra, il cui peso è pari a tre tonnellate, può dare agli archeologi la stessa quantità di informazioni di una foto di alta qualità in una buona pubblicazione archeologica, non è vero? E quando lo studio radiofonico di Kiev riporta le ultime notizie, sia il residente di Kiev che il residente di Illichivsk apprenderanno di tutto, indipendentemente dal fatto che l'energia delle onde radio a Kiev sia molto più lontana di centinaia di chilometri. Si scopre che né il potere, né la dimensione, né la quantità possono svolgere il ruolo di una misura di informazione. Allora come possiamo stimare questa o quella quantità di dati? quantità di informazioni

novità

Sappiamo da un corso di informatica che la quantità di informazioni elaborate dai computer è misurata in bit, byte e multipli di essi. Tuttavia, questo non spiega come tale conoscenza possa essere applicata nella vita di tutti i giorni. Ad esempio, come valuteresti le informazioni ottenute in seguito alla lettura di questo articolo? Sarebbe corretto dire che più lettere ci sono, più risulterà? E se, dopo aver letto questo articolo una settimana dopo, riceverai la stessa quantità di informazioni di prima? La risposta è ovvia. Tutto ciò suggerisce l'idea che dal punto di vista della novità è semplicemente impossibile misurarla. Non un po 'qui aiuterà. quantità di informazioni

volume

Ma nella tecnica, la quantità di informazioni può essere misurata come il numero di caratteri o segnali che memorizzano, trasmettono ed elaborano dispositivi tecnici. Questo approccio è basato su conteggio dei caratteri in ogni messaggio specifico. Ad esempio, la parola "pace" nell'alfabeto inglese è scritta in cinque lettere - pace, in russo - tre, e in KOI8, 24 bit sono usati per la sua trasmissione: 111011011110100111110010. Ecco dove megabyte, kilobyte e terabyte trovano il loro uso. misure di informazione

probabilità

Esiste un altro approccio, in base al quale le informazioni sono considerate come una soluzione all'incertezza. Da questo punto di vista, più dati riceviamo, meno ignoranza e maggiore consapevolezza. La quantità di informazioni qui è anche definita in bit, e l'uno o l'altro risultato probabilistico da una coppia di eventi ugualmente possibili ("no" o "sì", "0" o "1") è preso come unità di misura. Ad esempio, una moneta viene lanciata per il disegno. L'aquila o le code potrebbero cadere. Il messaggio che la coda è caduta riduce l'incertezza della metà e le sue dimensioni corrispondono a un bit. Nel caso in cui il numero di eventi ugualmente possibili sia superiore a 2, l'uguaglianza di R. Hartley viene utilizzata per valutare il messaggio, che di solito è scritto come:

2 I = N o I = log 2 N, dove

N è il numero di tutti gli eventi possibili,

I: la quantità di informazioni in byte.

A volte questa formula è scritta in una forma modificata: I = log 2 (1 / p) = - log 2 p. Il simbolo "p" in questo caso indica la probabilità di occorrenza di ciascuno dei risultati ugualmente probabili. Supponiamo, per esempio, che vengano lanciati due dadi normali. È necessario determinare quanti bit portano il messaggio che uno di loro ha un cinque e l'altro ne ha uno due. È facile calcolare che la probabilità di ciascuno di questi eventi è di un sesto. Pertanto, I = 2 * log 2 6 = 2 * 2,585 = 5,17 bit. Come potete vedere, la misurazione delle informazioni dipende in gran parte dalla portata del suo uso e dall'approccio scelto. È difficile immaginare quanto sia importante al momento attuale. Probabilmente, dopo il tempo, questa è la risorsa più importante che una persona moderna possa possedere.