Chi era Claude Shannon? Quando Google ti dedica un doodle per il 100° anniversario della tua nascita, sei molto più di un matematico. Sei una rockstar della scienza. A questo, aggiungi anche un mix di hobby insoliti e la capacità di costruire marchingegni strepitosi. Mettici pure un certo senso dell’umorismo e un carattere schivo, e avrai la mente che ha dato alla luce la Teoria dell’Informazione (e non solo quella).
Detta così, “teoria dell’informazione”, può sembrare poca cosa. Se però vuoi mandarmi un WhatsApp, oppure telefonarmi, beh sappi che Claude Shannon ha fatto parecchio per rendere tutto questo possibile.
Un grande scienziato, dunque. Ma anche un giocoliere, un inventore di giocattoli curiosi, un appassionato di scacchi e un frequentatore dei casinò di Las Vegas. Uno che vedevi sfrecciare nei corridoi dei centri di ricerca in equilibrio su un monociclo. E nella galleria dei pensatori creativi, non poteva certo mancare il suo ritratto.
Un bambino nerd che sogna Edison
Claude Elwood Shannon nasce nel 1916 a Petoskey, nel Michigan. Cresce qualche chilometro più a sud, a Gaylord, altro piccolo comune della zona. Per darti un’idea, considera che se sommi il numero di abitanti dei due comuni non arrivi a 10.000 persone. Siamo a circa 360 chilometri da Detroit, circondati dal verde delle campagne e dalle acque del Lago Michigan.
Il padre di Claude è un uomo d’affari e un giudice, la madre invece insegna e dirige la scuola locale. Fino ai 16 anni di età, Claude Shannon vive in questo scenario bucolico di piccola provincia, con il nonno che gli accende la passione per la scienza e la tecnologia. Quando non è a scuola, passa il tempo costruendo piccole invenzioni e giocattoli. Parla poco e fantastica smanettando su impianti meccanici ed elettrici.
Come ogni aspirante inventore che si rispetti, ammira Thomas Edison. Se sei un fan dei colpi di scena, sappi che qualche anno più tardi Shannon scoprirà di essere un lontano parente dell’inventore della lampadina.
Come preparare una rivoluzione tecnologica
Nel 1932 si iscrive all’Università del Michigan e ne esce 4 anni più tardi con una laurea in matematica e una in ingegneria elettronica. A 20 anni non è ancora riconosciuto come un prodigio, comunque è già un bel cervello, tanto che ottiene l’ingresso al prestigioso MIT (Massachussets Institute of Technology).
Nel 1938 ottiene il dottorato discutendo una tesi dal titolo “Un’analisi simbolica dei relè e dei circuiti”, documento che diventa qualche tempo dopo una delle pietre miliari della futura elettronica digitale. Niente male per un ragazzo di 22 anni, che dimostra come si possa applicare l’algebra di Boole ai circuiti elettrici. Con questa intuizione, si passa dal mondo analogico a quello digitale. Di fatto, si apre una nuova era per la tecnologia. E la sua avventura scientifica non finisce qui.
Arrivano i militari, il divorzio e la Teoria dell’Informazione
Siamo a cavallo della Seconda Guerra Mondiale. Dopo un’esperienza a Priceton e il divorzio dalla prima moglie, entra nei laboratori Bell. Si occupa di progetti militari, dal puntamento antiaereo alla crittografia. Passa molto tempo da solo, è una persona disponibile con i colleghi ma è piuttosto schiva. Tuttavia, davanti a un enigma o un gioco matematico non si tira indietro e lascia tutti a bocca aperta per la sua capacità di risolverli in poco tempo.
In quel periodo, lavorando sui sistemi per rendere segreti gli scambi di informazioni, incontra Alan Turing, con cui discute di Intelligenza Artificiale e dello sviluppo dei primi calcolatori.
Shannon non dimentica però il suo primo amore, la trasmissione delle informazioni. Nel 1948, infatti, pubblica il saggio Una teoria matematica della comunicazione, definendo gli aspetti fondamentali della comunicazione digitale, tra cui i concetti di bit, ridondanza e rumore. Il classico schema Sorgente-Canale-Ricevitore è opera sua, così come una definizione dell’”entropia dell’informazione”.
Rileggendola oggi, la teoria potrebbe sembrare semplice, tanto da non giustificarne la fama. L’apparente semplicità rivela però il genio creativo di Shannon: l’abilità di semplificare la complessità. Faccio un esempio. L’enorme massa di informazioni eterogenee contenute in audio, testi, video, come può essere trasmessa e codificata in modo affidabile? Da una semplice sequenza di 0 e 1. Ed ecco che la matassa analogica viene sbrigliata con un’idea geniale.
Anche parlando di cose serissime, Shannon riesce sempre a spiazzare con un tocco di humor. Ecco cosa dice a proposito della nascita del concetto di entropia.
La mia più grande preoccupazione era come chiamarla. Ho pensato di chiamarla “informazione”, ma alla parola si era troppo abituati, così ho deciso di chiamarlo “incertezza”. Quando ho parlato con John von Neumann, ha avuto un’idea migliore. Von Neumann mi ha detto: si dovrebbe chiamare entropia, per due motivi. In primo luogo la funzione di incertezza è stata utilizzata in meccanica statistica sotto quel nome, quindi ha già un nome. In secondo luogo, e più importante, nessuno sa realmente che cosa realmente è l’entropia, quindi in un dibattito si avrà sempre un vantaggio.
– Claude Shannon –
Il biennio magico: 1948-1949
I primi anni del dopoguerra sono molto prolifici per Claude Shannon. Come abbiamo visto, ha pubblicato il saggio sulla Teoria dell’Informazione. A partire da questi studi, lavora con grande entusiasmo e getta le basi per la teoria matematica della crittografia. Software e algoritmi che cifrano numeri e testi prendono spunto proprio da qui.
Definisce anche il teorema del campionamento, detto anche Teorema di Nyquist-Shannon, che permette di trasformare un segnale analogico in uno digitale (ricordatelo, ad esempio, quando ascolti della musica sul tuo smartphone).
Shannon, però, non pensa soltanto ai numeri e ai codici. Negli uffici dei laboratori Bell incontra Mary Elizabeth Moore, matematica e analista. Nel 1949, un anno dopo essersi conosciuti, si sposano e dal matrimonio nasceranno tre figli.
Tra giocoleria, macchine “pensanti” e monocicli
Raccontare le scoperte e le teorie di uno scienziato rischia di mettere in secondo piano l’essere umano in carne ed ossa. Non si tratta di raccontare abitudini o stili di vita per dare un colore o un giudizio a una biografia. Piuttosto, aiuta a mostrare come una mente creativa abbia confini molto più ampi di quello che si potrebbe credere. Ed è anche il caso di Claude Shannon, che coltiva molti interessi, alcuni piuttosto insoliti.
Appassionato di circo, giocoleria e giochi di destrezza, può esibirsi in performance come questa.
La sua passione per il monociclo è diventata leggenda. Il primo, lo riceve in regalo dalla moglie. Lo studia e ci si allena fino a usarlo nei corridoi dei laboratori Bell, facendosi largo tra capannelli di ricercatori preoccupati dai giochi del loro illustre collega.
Negli anni 50 teorizza un futuro dove le macchine giocano a scacchi. In un suo celebre articolo sostiene che un calcolatore, per battere un giocatore umano, deve poter analizzare la miglior soluzione senza valutare tutte le possibili alternative (si parla di milioni di combinazioni). Insomma, una macchina “pensante” dotata di Intelligenza Artificiale. Grazie anche a questa intuizione, qualche decennio dopo (1997), Deep Blue darà scacco matto al pluricampione Garry Kasparov.
Sbancare i casinò è come dare un ordine al caso
Claude Shannon e la moglie amano passare i weekend a Las Vegas. Capita che ci vadano in compagnia di Edward O. Thorp, altra mente brillante del MIT (dove Shannon insegna per un ventennio). Tutti e tre sono matematici, e si siedono ai tavoli del Blackjack, o della roulette, con l’obiettivo di sbancarli in modo scientifico. A modo loro, cercano di cogliere un ordine nel caos della sorte. Dalla teoria matematica passano alla pratica nei casinò. E pare che ottengano ottimi risultati.
Le strambe invenzioni di Shannon
Lo Shannon che riesce a dettare a memoria un intero seriosissimo articolo accademico, è anche quello che si cimenta nella costruzione di giocattoli e invenzioni strabilianti. Essere scienziati significa anche divertirsi a fare quello che piace. Da pupazzi giocolieri, a macchine che risolvono il cubo di Rubik, mette il suo ingegno a disposizione dell’insolito.
Nella sua galleria delle meraviglie, c’è posto anche per un frisbee dotato di propulsione a razzo e per “Theseus“, un topo elettromeccanico che esplora un labirinto fino a trovarne l’uscita (uno dei primi esempi pratici di Intelligenza Artificiale).
Il topo Theseus in azione.
Riprendendo un’idea di Marvin Minsky, realizza anche la “The Ultimate Machine”, una scatola di legno “inutile” e affascinante. Una macchina che viene attivata al solo scopo di farla spegnere da sola.
C’è qualcosa di ipnotico in tutto questo, no?
Cosa ci resta di Claude Shannon
Una delle menti più brillanti del secolo scorso muore il 24 febbraio del 2001, a 84 anni, ospite di un casa di cura per malati di Alzheimer.
Ha lasciato un contributo scientifico enorme, che in questo post ho appena accennato. Di lui restano anche molti aneddoti del suo carattere eccentrico, di persona che ha vissuto e fatto scienza con un approccio giocoso. Per nostra fortuna, in Shannon lo spirito del bambino che nelle campagne del Michigan costruiva strani aggeggi, unendo meccanica ed elettricità, è rimasto intatto fino alla vecchiaia.
Claude Shannon conservava le sue invenzioni giocattolo in una stanza che era sempre felice di mostrare. Con grande umiltà diceva:”Ho speso un sacco di tempo in cose totalmente inutili”. Il pensiero creativo, però, ha bisogno anche di questo.
Photo credit: Tekniska museet.