La storia dello sviluppo dell'informatica. Tecnologia informatica domestica. Primo computer

02/03/2019

Non appena una persona ha scoperto il concetto di "quantità", ha immediatamente iniziato a selezionare strumenti che ottimizzano e facilitano il conto. Oggi i computer superpoteri, basati sui principi dei calcoli matematici, elaborano, memorizzano e trasmettono informazioni: la risorsa e il motore più importanti del progresso umano. Non è difficile avere un'idea di come lo sviluppo della tecnologia informatica abbia avuto luogo, dopo aver brevemente esaminato le fasi principali di questo processo.

Le fasi principali dello sviluppo dell'informatica

La classifica più popolare propone di evidenziare le principali fasi dello sviluppo della tecnologia informatica su base cronologica:

  • Palcoscenico manuale Cominciò agli albori dell'età umana e durò fino alla metà del XVII secolo. Durante questo periodo, le basi dell'account. Successivamente, con la formazione di sistemi di numeri posizionali, apparvero i dispositivi (punteggi, abaco, in seguito - una regola di diapositiva), rendendo possibili i calcoli mediante scariche.
  • Fase meccanica Cominciò a metà del XVII secolo e durò quasi fino alla fine del XIX secolo. Il livello di sviluppo della scienza in questo periodo ha permesso di creare dispositivi meccanici che eseguono le operazioni aritmetiche di base e memorizzano automaticamente le cifre più alte.
  • La fase elettromeccanica è la più breve di tutte, che combina la storia dello sviluppo della tecnologia informatica. Durò solo circa 60 anni. Questo è il divario tra l'invenzione nel 1887 del primo tabulatore fino al 1946, quando apparve il primo computer (ENIAC). Le nuove macchine, la cui azione era basata sulla trazione elettrica e sul relè elettrico, hanno permesso di eseguire calcoli con maggiore rapidità e precisione, ma il processo di conteggio doveva ancora essere controllato da una persona.
  • La fase elettronica è iniziata nella seconda metà del secolo scorso e continua ancora oggi. Questa è la storia di sei generazioni di computer elettronici - dalle primissime unità giganti, basate su tubi elettronici, a supercomputer moderni superpotenti con un numero enorme di processori paralleli in grado di eseguire simultaneamente molti comandi.

strutture di calcolo

Le fasi di sviluppo della tecnologia informatica sono suddivise in base al principio cronologico piuttosto arbitrariamente. Nel momento in cui sono stati utilizzati determinati tipi di computer, sono stati creati attivamente i prerequisiti per l'emergere di quanto segue.

I primi dispositivi per l'account

Il primo strumento di conteggio che conosce la storia dello sviluppo della tecnologia informatica è di dieci dita sulle mani di una persona. I risultati dell'account sono stati inizialmente registrati con l'aiuto di dita, tacche su legno e pietra, bastoncini speciali, nodi.

Con l'avvento della scrittura, sono comparsi e sviluppati vari modi di scrivere numeri, sono stati inventati i sistemi di numeri di posizione (decimale in India, esadecimale in Babilonia).

A partire dal IV secolo aC circa, gli antichi greci cominciarono a segnare attraverso l'abaco. Inizialmente, era una lastra piana di argilla con strisce su di esso con un oggetto appuntito. L'account è stato realizzato posizionando su queste strisce in un certo ordine piccole pietre o altri piccoli oggetti.

In Cina, nel IV secolo d.C., comparvero delle truffe a sette accenti: suanpan (suanpan). Su una struttura di legno rettangolare allungato fili o corde - da nove o più. Un altro filo (corda), stirato perpendicolarmente al resto, divideva il suanpan in due parti disuguali. Nel compartimento più grande, chiamato "terra", cinque ossa erano infilate su fili, nel più piccolo - "cielo" - ce n'erano due. Ciascuno dei ritardi corrispondeva alla cifra decimale.

I conti tradizionali soroban divennero popolari in Giappone dal XVI secolo, essendo arrivati ​​dalla Cina. Allo stesso tempo, i conti sono apparsi in Russia.

sviluppo del computer di generazione di computer

Nel 17 ° secolo, sulla base dei logaritmi scoperti dal matematico scozzese John Napier, l'inglese Edmond Gunter inventò una regolo calcolatore. Questo dispositivo è costantemente migliorato e vissuto fino ai giorni nostri. Ti consente di moltiplicare e dividere i numeri, aumentare la potenza, definire logaritmi e funzioni trigonometriche.

La regola di scorrimento è diventata un dispositivo che completa lo sviluppo di apparecchiature informatiche nella fase manuale (meccanica domestica).

I primi dispositivi di conteggio meccanico

Nel 1623, il primo "calcolatore" meccanico fu creato dallo scienziato tedesco Wilhelm Schickard, che chiamò l'orologio del conteggio. Il meccanismo di questo dispositivo assomigliava a un normale orologio, costituito da ingranaggi e asterischi. Tuttavia, è diventato noto su questa invenzione solo nella metà del secolo scorso.

Un salto qualitativo nel campo della tecnologia informatica fu l'invenzione della macchina sommatoria Pascaline nel 1642. Il suo creatore, il matematico francese Blaise Pascal, iniziò a lavorare su questo dispositivo quando non aveva nemmeno 20 anni. "Pascalina" era un dispositivo meccanico nella forma di una scatola con un gran numero di ingranaggi interconnessi. I numeri che dovevano essere aggiunti venivano inseriti nella macchina girando le ruote speciali.

Nel 1673, il matematico e filosofo sassone Gottfried von Leibniz inventò una macchina che eseguì quattro operazioni matematiche di base e fu in grado di estrarre radice quadrata. Il principio del suo lavoro era basato su sistema di numeri binari appositamente inventato dagli scienziati.

Nel 1818, il francese Charles (Karl) Xavier Thomas de Colmar, basato sulle idee di Leibniz, inventò una macchina aggiunta che può moltiplicare e dividere. E due anni dopo, l'inglese Charles Babbage iniziò a progettare una macchina in grado di eseguire calcoli con una precisione fino a 20 cifre decimali. Questo progetto rimase incompiuto, ma nel 1830 il suo autore ne sviluppò un altro - una macchina analitica per eseguire calcoli scientifici e tecnici esatti. La macchina doveva essere controllata da un software e, per l'input e l'output delle informazioni, si sarebbero dovute utilizzare schede perforate con diversa disposizione dei fori. Il progetto Babbage prevedeva lo sviluppo di apparecchiature di calcolo elettronico e attività che possono essere risolte con il suo aiuto.

le principali fasi dello sviluppo dell'informatica

È interessante notare che la gloria del primo programmatore del mondo appartiene a una donna: Lady Ade Lovelace (nee Byron). È stata lei a creare i primi programmi per il computer Babbage. Il suo nome fu in seguito nominato uno dei linguaggi del computer.

Sviluppo dei primi analoghi per computer

Nel 1887, la storia dello sviluppo della tecnologia informatica entrò in una nuova fase. L'ingegnere americano Hermann Hollerith (Hollerith) è riuscito a costruire la prima macchina di calcolo elettromeccanica - il tabulatore. Nel suo meccanismo c'era un relè, oltre a contatori e una speciale scatola di smistamento. Il dispositivo legge e ordina i record statistici realizzati su schede perforate. In futuro, l'azienda, fondata da Goldlert, divenne la spina dorsale del famoso gigante di computer IBM.

generazioni di computer

Nel 1930, l'americano Vannovar Bush creò un analizzatore differenziale. Era alimentato dall'elettricità e venivano utilizzati i tubi elettronici per immagazzinare i dati. Questa macchina è stata in grado di trovare rapidamente soluzioni a problemi matematici complessi.

Sei anni dopo, lo scienziato britannico Alan Turing sviluppò il concetto della macchina, che divenne la base teorica per i computer di oggi. Possedeva tutte le proprietà principali della moderna tecnologia informatica: poteva eseguire passo passo le operazioni programmate nella memoria interna.

Un anno dopo, George Stibits, uno scienziato degli Stati Uniti, ha inventato il primo dispositivo elettromeccanico del paese in grado di eseguire addizioni binarie. Le sue azioni erano basate sull'algebra booleana - logica matematica, creata nella metà del XIX secolo da George Boole: usando operatori logici AND, OR e NOT. Successivamente, il sommatore binario diventerà parte integrante del computer digitale.

Nel 1938, Claude Shannon, un dipendente dell'Università del Massachusetts, delineò i principi del dispositivo logico di un computer che utilizza circuiti elettrici per risolvere problemi di algebra booleana.

L'inizio dell'era dei computer

I governi dei paesi partecipanti alla Seconda guerra mondiale erano consapevoli del ruolo strategico dei computer nella condotta delle ostilità. Questo fu l'impulso per lo sviluppo e l'emersione parallela in questi paesi della prima generazione di computer.

Il pioniere nel campo dell'ingegneria informatica era Konrad Zuse, un ingegnere tedesco. Nel 1941 creò la prima macchina di calcolo automatica, controllata dal programma. La macchina, chiamata Z3, era costruita su relè telefonici, i programmi per esso erano codificati su un nastro perforato. Questo dispositivo è stato in grado di funzionare in un sistema binario, oltre a funzionare con numeri in virgola mobile.

Il seguente modello di macchina Zuse, lo Z4, è stato ufficialmente riconosciuto come il primo computer programmabile veramente funzionante. È anche passato alla storia come creatore del primo linguaggio di programmazione di alto livello, chiamato Plankalcule.

fasi di sviluppo dell'informatica

Nel 1942, i ricercatori americani John Atanasov (Atanasoff) e Clifford Berry crearono un dispositivo informatico che lavorava su tubi a vuoto. La macchina utilizzava anche codice binario, poteva eseguire una serie di operazioni logiche.

Nel 1943, nel laboratorio del governo inglese, in segreto, fu costruito il primo computer, chiamato Colosso. Invece di relè elettromeccanici, ha usato 2 mila tubi elettronici per lo stoccaggio e elaborazione delle informazioni. Era destinato all'hacking e alla decodifica del codice dei messaggi segreti trasmessi dalla macchina di crittografia Enigma tedesca, ampiamente utilizzata dalla Wehrmacht. L'esistenza di questo dispositivo per lungo tempo è stata mantenuta nella massima riservatezza. Dopo la fine della guerra, l'ordine di distruggerlo fu firmato personalmente da Winston Churchill.

Sviluppo dell'architettura

Nel 1945, il matematico americano di origine ungherese-tedesca, John (Janos Lajos), von Neumann, creò il prototipo dell'architettura dei computer moderni. Propose di scrivere il programma sotto forma di codice direttamente nella memoria della macchina, implicando la memorizzazione congiunta di programmi e dati nella memoria del computer.

L'architettura von Neumann pose le basi per il primo computer elettronico universale, l'ENIAC, che venne creato in quel momento negli Stati Uniti. Questo gigante pesava circa 30 tonnellate e si trovava su 170 metri quadrati di spazio. 18 mila lampade sono state coinvolte nel funzionamento della macchina. Questo computer potrebbe eseguire 300 operazioni di moltiplicazione o 5 mila aggiunte in un secondo.

Il primo computer universale programmabile in Europa fu creato nel 1950 nell'Unione Sovietica (Ucraina). Un gruppo di scienziati di Kiev, guidato da Sergey Alekseevich Lebedev, ha progettato una piccola macchina per il conteggio elettronico (MESM). La sua velocità era di 50 operazioni al secondo, conteneva circa 6 mila tubi a vuoto.

Nel 1952, BESM, una grande calcolatrice elettronica, anch'essa sviluppata sotto la guida di Lebedev, fu rifornita di apparecchiature informatiche domestiche. Questo computer, che eseguiva fino a 10 mila operazioni al secondo, era in quel momento il più veloce in Europa. Le informazioni sono state inserite nella memoria della macchina per mezzo di nastro perforato, i dati sono stati inviati tramite stampa fotografica.

Nello stesso periodo, una serie di computer di grandi dimensioni con il nome generale Strela fu prodotta nell'URSS (sviluppata da Yury Yakovlevich Bazilevsky). Dal 1954 a Penza inizia la produzione di massa del computer universale "Ural" sotto la guida di Bashir Rameyev. Gli ultimi modelli erano hardware e software compatibili tra loro, c'era una vasta scelta di dispositivi periferici, consentendo di montare macchine di varie configurazioni.

Transistor. Rilascio dei primi computer seriali

Tuttavia, le lampade si sono scaricate molto rapidamente, molto difficile da lavorare con la macchina. Il transistor, inventato nel 1947, fu in grado di risolvere questo problema. Usando le proprietà elettriche dei semiconduttori, ha eseguito gli stessi compiti dei tubi elettronici, ma ha occupato un volume molto più piccolo e ha consumato non molta energia. Insieme con l'avvento dei nuclei di ferrite per l'organizzazione della memoria del computer, l'uso dei transistor ha permesso di ridurre significativamente le dimensioni delle macchine, renderle più affidabili e più veloci.

lo sviluppo della tecnologia informatica in breve

Nel 1954, la compagnia americana "Texas Instruments" iniziò a produrre transistor in serie, e due anni dopo, nel Massachusetts, apparve il primo computer a transistor della seconda generazione - TX-O.

Verso la metà del secolo scorso, una parte significativa delle organizzazioni statali e delle grandi aziende utilizzava computer per calcoli scientifici, finanziari e ingegneristici, lavorando con grandi matrici di dati. A poco a poco, i computer hanno acquisito funzionalità a noi familiari oggi. Durante questo periodo, apparvero plotter, stampanti, supporti di memorizzazione su dischi magnetici e nastro.

L'uso attivo della tecnologia informatica ha portato all'espansione delle sue aree applicative e ha richiesto la creazione di nuove tecnologie software. apparso linguaggi di programmazione di alto livello consente di trasferire programmi da una macchina all'altra e semplificare il processo di scrittura del codice ("Fortran", "Cobol" e altri). Appaiono programmi di traduzione speciali che convertono il codice da queste lingue in comandi direttamente percepiti dalla macchina.

La comparsa di circuiti integrati

Nel 1958-1960, grazie agli ingegneri degli Stati Uniti, Robert Noyce e Jack Kilby, il mondo apprese dell'esistenza di circuiti integrati. Sulla base di transistor miniaturizzati montati su silicio o cristallo di germanio e altri componenti, a volte fino a centinaia e migliaia. I chip che misuravano poco più di un centimetro funzionavano molto più velocemente dei transistor e consumavano molta meno energia. Con il loro aspetto, la storia dello sviluppo della tecnologia informatica collega l'emergere della terza generazione di computer.

Nel 1964, IBM ha rilasciato il primo computer della famiglia SYSTEM 360, basato su circuiti integrati. Da questo momento, è possibile tenere traccia della produzione di massa dei computer. Sono state prodotte più di 20 mila copie di questo computer.

Nel 1972, in Unione Sovietica, fu sviluppato un computer UE (serie singola). Questi erano complessi standardizzati per il lavoro dei centri di calcolo, che avevano un comune sistema di comandi. La base è stata presa dal sistema americano IBM 360.

L'anno seguente, DEC pubblicò il mini-computer PDP-8, che divenne il primo progetto commerciale in quest'area. Il costo relativamente basso dei mini-computer ha consentito alle piccole organizzazioni di utilizzarli.

Nello stesso periodo il software è stato costantemente migliorato. Sistemi operativi sviluppati progettati per mantenere il numero massimo di dispositivi esterni, sono apparsi nuovi programmi. Nel 1964, è stato sviluppato BASIC, un linguaggio progettato specificamente per la formazione dei programmatori alle prime armi. Cinque anni dopo, Pascal emerse, risultando molto conveniente per risolvere una varietà di problemi applicati.

Personal computer

Dopo il 1970 iniziò il rilascio del quarto generazione di computer. Lo sviluppo della tecnologia informatica in questo momento è caratterizzato dall'introduzione di grandi circuiti integrati nella produzione di computer. Tali macchine potevano ora eseguire in un secondo migliaia di milioni di operazioni computazionali e la capacità della loro RAM aumentava a 500 milioni di bit binari. Una significativa riduzione del costo dei microcomputer ha portato al fatto che la capacità di acquistarli gradualmente è apparsa in una persona comune.

Uno dei primi produttori di personal computer era Apple. Steve Jobs e Steve Wozniak, che l'hanno creato, hanno progettato il primo modello di PC nel 1976, dandogli il nome di Apple I. Costa solo $ 500. Un anno dopo fu presentato il seguente modello di questa azienda: Apple II.

Il computer di questo tempo per la prima volta è diventato simile a un elettrodomestico: oltre alle dimensioni compatte, aveva un design elegante e un'interfaccia user-friendly. La proliferazione dei personal computer alla fine degli anni '70 portò a un notevole calo della domanda di computer di grandi dimensioni. Questo fatto ha preoccupato seriamente il loro produttore, IBM, e nel 1979 ha lanciato il suo primo PC.

storia dello sviluppo dell'informatica

Due anni dopo apparve il primo microcomputer di questa azienda con un'architettura aperta, basata su un microprocessore 8088 a 16 bit prodotto da Intel. Il computer era dotato di un display monocromatico, due unità disco per dischi floppy da 5 pollici, 64 kb di RAM. Per conto della società creatrice, Microsoft ha sviluppato appositamente un sistema operativo per questa macchina. Sul mercato sono comparsi numerosi cloni del PC IBM, che ha spinto la crescita della produzione industriale di personal computer.

Nel 1984, Apple sviluppò e pubblicò un nuovo computer, il Macintosh. Il suo sistema operativo era estremamente user-friendly: rappresentava comandi sotto forma di immagini grafiche e permetteva di inserirli con l'aiuto di un manipolatore: un mouse. Ciò ha reso il computer ancora più accessibile, poiché ora non sono richieste competenze speciali da parte dell'utente.

Computer della quinta generazione di tecnologia informatica, alcune fonti risalgono al periodo 1992-2013. In breve, il loro concetto di base è formulato come segue: si tratta di computer creati sulla base di microprocessori supercompleti, con una struttura a vettori paralleli, che rende possibile eseguire simultaneamente dozzine di comandi consecutivi incorporati in un programma. Le macchine con diverse centinaia di processori in parallelo consentono di elaborare i dati in modo più accurato e rapido, nonché di creare reti funzionanti in modo efficiente.

Lo sviluppo della moderna tecnologia informatica ci consente di parlare dei computer della sesta generazione. Si tratta di computer elettronici e optoelettronici che operano su decine di migliaia di microprocessori, caratterizzati da un massiccio parallelismo e simulando l'architettura dei sistemi biologici neurali, che consente loro di riconoscere con successo immagini complesse.

tecnologia informatica elettronica

Avendo costantemente esaminato tutte le fasi dello sviluppo della tecnologia informatica, va notato un fatto interessante: le invenzioni che si sono dimostrate valide in ognuna di esse sono sopravvissute fino ai giorni nostri e continuano ad essere utilizzate con successo.

Lezioni di informatica

Ci sono varie opzioni per la classificazione dei computer.

Quindi, i computer di proposito sono divisi:

  • per quelli universali - quelli che sono in grado di risolvere i più svariati compiti matematici, economici, ingegneristici, scientifici e di altro genere;
  • orientato al problema - risolvere problemi di una direzione più ristretta, collegata, di regola, con la gestione di determinati processi (registrazione dei dati, accumulo ed elaborazione di piccole quantità di informazioni, esecuzione di calcoli in accordo con semplici algoritmi). Hanno risorse software e hardware più limitate rispetto al primo gruppo di computer;
  • I computer specializzati, di regola, risolvono compiti strettamente definiti. Hanno una struttura altamente specializzata e con una complessità relativamente bassa del dispositivo e il controllo è abbastanza affidabile e produttivo nel loro campo. Questi sono, ad esempio, controller o adattatori che controllano un numero di dispositivi, nonché microprocessori programmabili.

In termini di dimensioni e prestazioni, la moderna tecnologia di calcolo elettronico è suddivisa in:

  • su super-large (supercomputer);
  • computer di grandi dimensioni;
  • piccoli computer;
  • ultra piccolo (microcomputer).

Così, abbiamo visto che i dispositivi, inventati prima dall'uomo per la contabilità di risorse e valori, e poi - per eseguire calcoli complessi e operazioni computazionali veloci e precisi, erano costantemente sviluppati e migliorati.