Codifica delle informazioni binarie

28/02/2019

La teoria del codice è una delle sezioni dell'informatica, direttamente correlata alla crittografia e alla decrittazione delle informazioni che arrivano all'utente. I modi moderni di nascondere i dati sono radicati nell'antico passato dell'umanità, perché, insieme alle prime entità di stato, sono comparsi anche importanti segreti. E insieme codifica delle informazioni la prima lettera è nata e la scrittura segreta. Quindi, il primo stadio della sua esistenza, la codifica dell'informazione ha vissuto migliaia di anni di storia umana.

L'inizio del palcoscenico moderno

La codificazione delle informazioni iniziò ad acquisire le sue attuali caratteristiche solo verso la metà del XIX secolo. La ragione di questo era colpo di stato in generale, e in particolare tali invenzioni come telefono, telegrafo, scintilla, radio e altri. Per la prima volta, è stato necessario per gli scienziati creare un nuovo sistema di cifratura, orientato non sulla scrittura, non su lettera annodata o qualcosa del genere, ma sull'ultima tecnologia. Il primo metodo di codifica del genere è diventato famoso oggi. Codice Morse Era costruito sul sistema di segnali ternario, cioè era composto solo da tre elementi: una pausa, un punto, un trattino.

codifica delle informazioni in un computer

Nuova era

Gli anni passarono, i metodi di crittografia si sono evoluti. Sono comparsi sistemi più complessi. Nella prima metà del XX secolo, due guerre mondiali hanno contribuito a questa rapida evoluzione, costringendo gli avversari a metodi di codifica sempre più sofisticati. E, di conseguenza, alla sempre più intelligente decodifica dei cifrari. I prerequisiti per una nuova rivoluzione in questo settore furono lo sviluppo di IBM negli anni Quaranta e Cinquanta, che culminò nella creazione dei primi sistemi informatici elettronici.

Codifica delle informazioni nel computer

La base del lavoro dei computer è diventata ed è, fino ad oggi, la cosiddetta "codifica binaria" informazioni. "Questo il metodo di cifratura si basa sul fatto che tutte le informazioni sono convertite in una combinazione di due valori dell'alfabeto binario. codifica di informazioni binarie Questi numeri sono zero e uno. La scelta di questo metodo sta nella sua semplicità, dal momento che il sistema di computer elettronico funziona in modo molto più affidabile con due diversi stati di segnale. Potrebbero esserci cinque e dieci, ma in questo caso è molto probabile che ci siano degli errori. Naturalmente, nella sua forma espansa, il sistema binario è un record molto lungo, che complica il lavoro con esso ed è il suo svantaggio. Poiché la codifica di informazioni basate su un codice binario può essere di varie lunghezze, i pezzi di codice sono stati combinati in caratteri separati: 1 byte o 8 bit. L'operazione principale che viene eseguita su singole "parole" del testo è il loro confronto. Il primo aspetto a cui la macchina presta attenzione durante un'operazione del genere è l'unicità del codice e la sua lunghezza. Per codificare le informazioni, il sistema utilizza una varietà di tabelle di conversione. È necessario che lo stesso sia usato durante la codifica e la decodifica di un testo. Oggi, le tabelle più comuni per le modifiche di cifratura sono le seguenti: Unicode, DKOI-8, CP1251, ASCII. CP1251, KOI-8, CP866, ISO e Mac sono adatti per la codifica dell'alfabeto specificamente russo.