1.2.2 Informazione Il termine informazione viene utilizzato da Shannon e Weaver in un'accezione particolare. Per dirla con Weaver, l'informazione <<non riguarda tanto ciò che si dice effettivamente, quanto ciò che si potrebbe dire. Cioè, l'informazione è una misura della libertà di scelta che si ha quando si sceglie un messaggio>> [1] [Shannon e Weaver 1983, 8]. L'informazione non è intesa quindi come sinonimo di messaggio, significato, contenuto o simili, bensì come unità di misura (quantitativa) della libertà di scelta della sorgente nel comporre e inviare un messaggio, e dipende:
E' perciò <<ingannevole (anche se spesso conveniente) dire che l'uno o l'altro messaggio trasferisce una certa quantità di informazione. Il concetto di informazione non si applica ai messaggi particolari, ma piuttosto all'informazione intesa come un tutto>> [Shannon e Weaver 1983, 9]. Immaginiamo che la sorgente possa scegliere di inviare uno tra due messaggi possibili in modo indipendente (cioè in modo che la scelta di un messaggio non implichi anche la scelta dell'altro) e che il primo messaggio sia composto da una sola parola, mentre il secondo sia il testo completo della Bibbia. Per la definizione data sopra di "informazione", ognuno dei due messaggi alternativi vale una sola unità di informazione (per convenzione, un bit), indipendentemente dal numero di simboli da cui è composto il messaggio effettivamente scelto e indipendentemente dal significato del messaggio [4] . Occorre poi notare che il numero di unità di informazione è uguale al numero di scelte alternative possibili per la sorgente (quantificate in bit) e non al numero di messaggi possibili per la sorgente [5] . Si può ribadire la differenza tra simboli e informazione ricordando che la capacità di un canale di comunicazione è uguale alla quantità massima di informazioni e non al numero di simboli che esso può trasmettere nell'unità di tempo (e quindi dipende da numero e indipendenza delle alternative nonché dalla codifica) [6] . Questa definizione però, avverte Weaver, è ancora imprecisa e può dar luogo a fraintendimenti sul concetto di informazione, che a rigore è una misura delle alternative a disposizione della sorgente, e non un qualcosa di trasmissibile. E' meglio perciò dire, precisa sempre Weaver, che la capacità di un canale è data dalla <<sua idoneità a trasmettere quanto è prodotto dalla sorgente di una data informazione>> [Shannon e Weaver 1983, 16-17]. La precisazione, come si vede, è chiara nelle intenzioni, ma ambigua nella terminologia: non è ben chiaro a che cosa ci si riferisca con la frase "quanto è prodotto dalla sorgente" [7] , tanto più che poco dopo si parla ancora, semplificando, di trasmissione di informazione: <<la capacità misura non il numero di simboli trasmessi ogni secondo, quanto piuttosto l'ammontare di informazione trasmesso al secondo, usando i bit al secondo come unità di misura>> [ibidem]. Da questa semplificazione terminologica, influenzata dal significato comune della parola informazione e operata da Weaver per pura comodità espositiva, è scaturita una delle principali inesattezze di fondo non della teoria matematica della comunicazione, ma dell'interpretazione che ne è stata data in seguito da altre discipline, alla cui base sta l'assunto che la comunicazione consista nella trasmissione di informazioni. A causa della non risoluzione di questa ambiguità, lo stesso Weaver trarrà conseguenze affrettate. In particolare affermerà che la distinzione, da lui stesso precedentemente introdotta, dei problemi della comunicazione in tre livelli è del tutto riducibile al primo, e che quindi in ultima analisi è sufficiente l'esatta trasmissione dei simboli per determinare la comprensione del messaggio da parte del destinatario e la sua efficacia [Shannon e Weaver 1983, 26- 28]. Questo appiattimento dei livelli dall'alto verso il basso riduce la comunicazione a un processo causale lineare, guidato da una semplice logica S-R. In particolare, non viene riconosciuta al destinatario nessuna attività costitutiva e selettiva sul complesso segnale-messaggio, né in termini di quantità di informazione né di significato. Infatti, secondo Weaver, ogni differenza tra il significato del messaggio inteso dalla sorgente e quello inteso dal destinatario può avere solo due cause non escludentisi, la prima delle quali genera un errore non correggibile:
Per sostenere la tesi della riducibilità dei livelli B e C ad A, Weaver accenna anche ad una possibile complessificazione dello schema del sistema della comunicazione, introducendo un trasmettitore semantico, un ricevitore semantico e tra essi una fonte di disturbo semantico, trattabile con metodi statistici, ritenendo che in questo modo si sarebbero potuti contemporaneamente risolvere i problemi di livello B e C. Ad un'esatta trasmissione dei simboli corrisponderebbe quindi un'esatta comprensione e questa genererebbe l'efficacia del messaggio (far fare al destinatario ciò che la sorgente vuole) [Shannon e Weaver 1983, 28-29]. [1] Il concetto di informazione di Shannon è
omologo a quello, tratto dalla fisica, di entropia. L'entropia è espressa
in termini delle varie probabilità che vari stati di un processo hanno di
verificarsi dopo che un certo altro stato si è verificato: più le
probabilità sono simili, più l'entropia è alta. Nel caso della
comunicazione, si tratta in generale delle probabilità che hanno certi
simboli di comparire dopo che sono comparsi certi altri simboli: più le
probabilità sono simili, maggiore è la quantità di informazione [voce
Termodinamica nel dizionario enciclopedico UTET 1962;Shannon
e Weaver 1983, 1-2 e 12 ss.]. Torna Su
|