Pubblicato su politicadomani Num 63 - Novembre 2006

Il contributo di Chomsky all'informatica

di Alessandro Papacci

È durante i suoi studi di filosofia e linguistica all'università della Pennsylvania, a metà degli anni quaranta, che Noam Chomsky si interessa delle scoperte fatte da Zellig Arris, il suo professore, sul modo di produrre frasi di senso compiuto operando con regole di analisi matematica sulla struttura del linguaggio naturale. Chomsky successivamente reinterpreta questa teoria allo scopo di rappresentare formalmente i procedimenti sintattici elementari che sono alla base della costruzione delle frasi in un comune linguaggio parlato. Lo fa in numerosi articoli apparsi sulle più prestigiose riviste tecnico-scientifiche negli anni che vanno dal 1956 al 1965, nei quali illustra diversi metodi per descrivere in modo formale un linguaggio a partire dalla sua grammatica. Con il termine grammatica si intende un formalismo che permette di definire un insieme di stringhe (sono tali le parole del linguaggio) mediante l'imposizione di regole per la costruzione della frase. In altre parole la costruzione del linguaggio viene effettuata partendo da una stringa e applicando via via ad essa una qualche regola della grammatica (chiamate regole di derivazione). Sulla base di questa definizione Chomsky distingue quattro tipi di grammatiche che qui enunceremo soltanto: le grammatiche di tipo 0, le meno restrittive, dove vengono ammesse anche derivazioni che "accorciano" la lunghezza della frase di partenza, le grammatiche di tipo 1 dove viene ammessa qualunque produzione che non riduca la lunghezza delle stringhe, le grammatiche di tipo 2, dette context free, e infine le grammatiche di tipo 3 anche dette regolari, che sono quelle più restrittive.
Pur avendo dato un notevole contributo alla visione e interpretazione scientifica della costruzione di un linguaggio naturale, queste teorie si sono rivelate ben presto uno strumento inadeguato allo scopo che volevano raggiungere, che era la costruzione effettiva di un linguaggio, e vennero abbandonate dagli esperti di linguistica. In quegli anni però era in forte sviluppo nei laboratori una macchina che da lì a poco avrebbe rivoluzionato il mondo: il calcolatore elettronico. Per come era stato definito negli anni trenta dal matematico John Von Neumann un processore (che è il cuore di tutti i nostri personal computer) è sostanzialmente un dispositivo che prende in ingresso dei dati in formato binario, li elabora effettuando comuni operazioni matematiche (principalmente somma e prodotto) e li restituisce all'esterno. Si tratta in definitiva di qualcosa di particolarmente semplice che sfrutta la straordinaria velocità con cui possono essere effettuate le operazioni. La vera difficoltà però stava nel poter usare questa macchina per effettuare operazioni complesse e soprattutto nel fatto che queste potessero essere scritte facilmente da un operatore umano. C'era quindi bisogno di un traduttore che permettesse all'uomo di dialogare con la macchina. Ecco allora che le teorie sulle grammatiche di Noam Chomsky si rivelarono oltremodo utili per poter generare un linguaggio (quello interpretato dalla macchina) a partire da alcune delle regole fondamentali di una grammatica appartenente a un altro linguaggio (il linguaggio di programmazione). Da allora i linguaggi di programmazione più comuni fanno uso di strumenti chiamati "compilatori", tecnicamente conosciuti come parser, che permettono al programmatore di tradurre in "codice macchina" le regole scritte a video attraverso la tastiera e danno la possibilità di realizzare tutti i programmi che vediamo comunemente sul monitor del nostro pc. Programmi che sarebbero stati effettivamente impossibili da realizzare per qualsiasi persona, che fosse stata obbligata a ragionare solamente in termini di bit, considerata anche la notevole complessità dei software oggi disponibili. È quasi incredibile (ma accade spesso in ambito scientifico) come qualcosa pensato per operare in altri ambiti, quale quello linguistico, si sia adattato a uno scopo puramente scientifico e tecnologico.
Negli anni gli studi di Chomsky hanno trovato utilità anche in altri campi dell'informatica come, ad esempio, nell'intelligenza artificiale, disciplina che ha lo scopo di capire entità intelligenti e di realizzare macchine capaci di operare autonomamente in un ambiente reale. Qui le sue teorie vengono utilizzate principalmente per creare operatori capaci di comunicare con l'uomo senza essere controllate direttamente o senza che le azioni da esse effettuate siano state preimpostate. Oggi, dopo circa quarant' anni di studi in un campo così vasto e ambizioso, possiamo dire di essere ancora allo stato embrionale. Tuttavia le potenzialità della ricerca sono enormi e con buona probabilità, in un futuro più o meno lontano, anche queste macchine entreranno a far parte della nostra vita quotidiana.

 

Homepage

 

   
Num 63 Novembre 2006 | politicadomani.it