back

Riferendoci, ad esempio, alle architetture multi-utente in time-sharing dei primi anni settanta, alcuni dei protagonisti del movimento del "free software" che si formano usando questa tecnologia, ci raccontano che tra di loro all'epoca era implicitamente adottata un politica di sicurezza estremamente permissiva, dettata dallo spirito di ricerca e collaborazione e volta alla massima condivisione della conoscenza sul funzionamento hardware e software. Ad esempio, raccontano che l'accesso ai terminali non prevedeva l'inserimento delle credenziali utente e chiunque poteva visionare o modificare il codice sorgente realizzato da altri purché ne rimanesse traccia e contribuisse alla crescita collettiva [2].
Se è vero che la limitazione nell'accesso alla conoscenza informatica per motivi commerciali e la negazione della libertà d'uso di tale conoscenza sono considerate negativamente dal movimento del "free software", è altrettanto vero che esso non ha potuto farvi fronte ai suoi esordi. Come racconta Richard Stallman, a partire dai primi anni settanta, l'evoluzione tecnica e commerciale subita dai sistemi informatici ha condotto, comunque, all'introduzione di strumenti volti a controllarne la condivisione: questa tendenza, iniziata anche nei centri di calcolo del MIT frequentati da Stallman, persiste tutt'oggi. Paradossalmente, proprio l'esistenza di tali restrizioni ha stimolato molti cultori della materia a cercare, spesso per pura sfida intellettuale, soluzioni di elusione sempre più ingegnose; l'industria cinematografica americana non ha mancato di cogliere questi aspetti, seppur drammaticizzati, in produzioni di grande impatto come "Tron" [3] e "War Games" [4].
A partire dalla fine degli anni settanta, la creazione del mercato del "personal computer" ha avvicinato all'informatica una nuova generazione di utenti. Ciò si è accompagnato alla diffusione di una cultura della sicurezza volta essenzialmente al controllo fisico dei dispositivi. I computer dell'epoca, infatti, nella maggior parte dei casi non erano interconnessi, molti dei primi sistemi operativi non prevedevano la login dell'utente, alcuni caricavano il sistema operativo da memoria a sola lettura (ROM). Infine, la diffusione su larga scala del codice sorgente dei programmi non di rado al tempo avveniva su supporto cartaceo in riviste specializzate.
A partire dalla seconda metà degli anni ottanta, parallelamente alla convergenza delle soluzioni hardware per l'interconnessione di rete, i sistemi operativi per personal computer iniziano ad ampliare le funzionalità di sicurezza mutuando, in varia misura, quelle già sperimentate nei sistemi operativi utilizzati nei centri di ricerca. In particolare, compaiono il controllo dell'accesso alla postazione, al file system ed alla condivisione dei dati, seppur inizialmente mediante soluzioni proprietarie.
Proprio in questo periodo, ed in particolare il 14 marzo 1994, si assiste anche al rilascio della versione 1.0 del kernel Linux [5] congiuntamente alle applicazioni fornite dal progetto GNU ereditando, di fatto, le logiche di controllo già implementate e, almeno dal punto di vista logico, collaudate nei sistemi operativi unix-like.
A partire dagli anni novanta, l'affermazione di internet come strumento di collegamento informatico su scala geografica ha prepotentemente riproposto le tematiche legate alle politiche di sicurezza. L'entità delle conseguenza di una minaccia su larga scala ha stimolato da una parte l'esigenza di documentare le vulnerabilità conosciute (ad esempio, attraverso database dedicati come il National Vulnerability Database (NVB) [6] o il Common Vulnerabilities and Exposures (CVE) [7]), e dall'altra quella di ben utilizzare le funzionalità di controllo esistenti per mitigare i rischi.

back