Mirror di ebook, audiolibri e file musicali tratti da Liber Liber


CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
SITEMAP
Audiobooks by Valerio Di Stefano: Single Download - Complete Download [TAR] [WIM] [ZIP] [RAR] - Alphabetical Download  [TAR] [WIM] [ZIP] [RAR] - Download Instructions

Make a donation: IBAN: IT36M0708677020000000008016 - BIC/SWIFT:  ICRAITRRU60 - VALERIO DI STEFANO or
Privacy Policy Cookie Policy Terms and Conditions TESI: CAPITOLO 1.2.2

1.2.2 Informazione

Il termine informazione viene utilizzato da Shannon e Weaver in un'accezione particolare. Per dirla con Weaver, l'informazione <<non riguarda tanto ciò che si dice effettivamente, quanto ciò che si potrebbe dire. Cioè, l'informazione è una misura della libertà di scelta che si ha quando si sceglie un messaggio>> [1] [Shannon e Weaver 1983, 8]. L'informazione non è intesa quindi come sinonimo di messaggio, significato, contenuto o simili, bensì come unità di misura (quantitativa) della libertà di scelta della sorgente nel comporre e inviare un messaggio, e dipende:

  • dal numero delle alternative che la sorgente ha a disposizione quando compone un messaggio (rappresentate come alternative binarie, discrete, e misurate in bits) e
  • dal loro grado di reciproca indipendenza probabilistica (che varia in modo continuo da 0 a 1) [2] . Indipendenza significa che la scelta di un messaggio non modifica le probabilità di scelta dei messaggi successivi [3] . A un maggior grado di indipendenza (eguale probabilità di emissione di ogni singolo messaggio) corrisponde una maggiore quantità di informazione (casualità, incertezza) della sorgente.

E' perciò <<ingannevole (anche se spesso conveniente) dire che l'uno o l'altro messaggio trasferisce una certa quantità di informazione. Il concetto di informazione non si applica ai messaggi particolari, ma piuttosto all'informazione intesa come un tutto>> [Shannon e Weaver 1983, 9]. Immaginiamo che la sorgente possa scegliere di inviare uno tra due messaggi possibili in modo indipendente (cioè in modo che la scelta di un messaggio non implichi anche la scelta dell'altro) e che il primo messaggio sia composto da una sola parola, mentre il secondo sia il testo completo della Bibbia. Per la definizione data sopra di "informazione", ognuno dei due messaggi alternativi vale una sola unità di informazione (per convenzione, un bit), indipendentemente dal numero di simboli da cui è composto il messaggio effettivamente scelto e indipendentemente dal significato del messaggio [4] . Occorre poi notare che il numero di unità di informazione è uguale al numero di scelte alternative possibili per la sorgente (quantificate in bit) e non al numero di messaggi possibili per la sorgente [5] . Si può ribadire la differenza tra simboli e informazione ricordando che la capacità di un canale di comunicazione è uguale alla quantità massima di informazioni e non al numero di simboli che esso può trasmettere nell'unità di tempo (e quindi dipende da numero e indipendenza delle alternative nonché dalla codifica) [6] . Questa definizione però, avverte Weaver, è ancora imprecisa e può dar luogo a fraintendimenti sul concetto di informazione, che a rigore è una misura delle alternative a disposizione della sorgente, e non un qualcosa di trasmissibile. E' meglio perciò dire, precisa sempre Weaver, che la capacità di un canale è data dalla <<sua idoneità a trasmettere quanto è prodotto dalla sorgente di una data informazione>> [Shannon e Weaver 1983, 16-17].

La precisazione, come si vede, è chiara nelle intenzioni, ma ambigua nella terminologia: non è ben chiaro a che cosa ci si riferisca con la frase "quanto è prodotto dalla sorgente" [7] , tanto più che poco dopo si parla ancora, semplificando, di trasmissione di informazione: <<la capacità misura non il numero di simboli trasmessi ogni secondo, quanto piuttosto l'ammontare di informazione trasmesso al secondo, usando i bit al secondo come unità di misura>> [ibidem]. Da questa semplificazione terminologica, influenzata dal significato comune della parola informazione e operata da Weaver per pura comodità espositiva, è scaturita una delle principali inesattezze di fondo non della teoria matematica della comunicazione, ma dell'interpretazione che ne è stata data in seguito da altre discipline, alla cui base sta l'assunto che la comunicazione consista nella trasmissione di informazioni. A causa della non risoluzione di questa ambiguità, lo stesso Weaver trarrà conseguenze affrettate. In particolare affermerà che la distinzione, da lui stesso precedentemente introdotta, dei problemi della comunicazione in tre livelli è del tutto riducibile al primo, e che quindi in ultima analisi è sufficiente l'esatta trasmissione dei simboli per determinare la comprensione del messaggio da parte del destinatario e la sua efficacia [Shannon e Weaver 1983, 26- 28]. Questo appiattimento dei livelli dall'alto verso il basso riduce la comunicazione a un processo causale lineare, guidato da una semplice logica S-R. In particolare, non viene riconosciuta al destinatario nessuna attività costitutiva e selettiva sul complesso segnale-messaggio, né in termini di quantità di informazione né di significato. Infatti, secondo Weaver, ogni differenza tra il significato del messaggio inteso dalla sorgente e quello inteso dal destinatario può avere solo due cause non escludentisi, la prima delle quali genera un errore non correggibile:

  • una insufficiente capacità del canale di comunicazione rispetto alla quantità di informazione da trasmettere (il che genera nel destinatario una confusione generale);

Per sostenere la tesi della riducibilità dei livelli B e C ad A, Weaver accenna anche ad una possibile complessificazione dello schema del sistema della comunicazione, introducendo un trasmettitore semantico, un ricevitore semantico e tra essi una fonte di disturbo semantico, trattabile con metodi statistici, ritenendo che in questo modo si sarebbero potuti contemporaneamente risolvere i problemi di livello B e C. Ad un'esatta trasmissione dei simboli corrisponderebbe quindi un'esatta comprensione e questa genererebbe l'efficacia del messaggio (far fare al destinatario ciò che la sorgente vuole) [Shannon e Weaver 1983, 28-29].


[1] Il concetto di informazione di Shannon è omologo a quello, tratto dalla fisica, di entropia. L'entropia è espressa in termini delle varie probabilità che vari stati di un processo hanno di verificarsi dopo che un certo altro stato si è verificato: più le probabilità sono simili, più l'entropia è alta. Nel caso della comunicazione, si tratta in generale delle probabilità che hanno certi simboli di comparire dopo che sono comparsi certi altri simboli: più le probabilità sono simili, maggiore è la quantità di informazione [voce Termodinamica nel dizionario enciclopedico UTET 1962;Shannon e Weaver 1983, 1-2 e 12 ss.]. Torna Su
[2] La teoria può supporre note a priori entrambe le condizioni, naturalmente però solo tramite opportune ipotesi semplificatrici [Shannon e Weaver 1983, pp. 10, 13 e 24-25].Questa capacità veramente notevole, tipica delle teorie generali, ha senz'altro avuto la sua parte nell'eccessivo ottimismo (eccessivo, perché le assunzioni semplificatrici hanno solo scopi espositivi e si verificano raramente in realtà) riguardo alla possibilità di ridurre il problema della comunicazione al livello A, come diremo dopo. Torna Su
[3] Weaver inizia a discutere dell'indipendenza riferendola a messaggi emessi successivamente, ma poi sviluppa l'argomentazione riferendosi a messaggi e a simboli indifferentemente, equiparando così i primi ai secondi [Shannon e Weaver 1983, 8 ss.], altra semplificazione che ha probabilmente influito sull'eccessivo ottimismo di cui sopra. Torna Su
[4] Questo è un punto importante. A rigore, il numero di simboli potrebbe essere un valore intero positivo finito qualsiasi per entrambi i messaggi, poiché ciò dipende del tutto dalle convenzioni di codifica utilizzate. Questo, come vedremo in seguito, è meglio comprensibile e anche del tutto naturale, quando si prenda in considerazione il ruolo delle aspettative e del contesto nel processo della comunicazione, ed è il corrispettivo "cibernetico" del concetto sociopsicologico di indessicalità (cioè dipendenza dal contesto) della comunicazione. Torna Su
[5] Bensì al logaritmo in base due del loro numero: "un bit" di informazione indica che la sorgente ha scelto una tra due possibilità alternative (cioè tra due messaggi possibili) indipendenti, due bit uno tra quattro messaggi, tre bit uno tra otto messaggi e così via, secondo la regola per cui il numero di bit è uguale al logaritmo in base 2 del numero delle scelte indipendenti possibili. Se ad esempio abbiamo 2x = 8 scelte, x si chiama il logaritmo in base 2 di 8, e vale 3 (bits) perché 23 = 8. La notazione logaritmica è log2 8 = 3. L'uso dei logaritmi in base 2 invece che del semplice numero di messaggi possibili, è dovuto al fatto che la codificazione e la trasmissione di informazione ricevono vantaggi da una reciproca disposizione (temporale, spaziale o classificatoria) dei simboli elementari. La disposizione codifica informazione e permette così di risparmiare simboli o tempo [Shannon e Weaver 1983, 10; Buckley 1976, 105]. Torna Su
[6] Se s sono i bit di informazione della sorgente e il canale può trasmettere n simboli al secondo, la capacità C di un canale di comunicazione, nel caso semplice in cui tutti i simboli trasmessi abbiano la stessa durata temporale e siano indipendenti tra loro, è uguale a ns bit al secondo. Torna Su
[7] Anticipiamo (come preciseremo meglio nel prossimo capitolo) che noi risolviamo questa ambiguità attribuendo alla locuzione "quanto è prodotto dalla sorgente" il significato di una perturbazione del medium della percezione del destinatario. Torna Su
[8] In particolare, Shannon e Weaver [1983, 21-22] chiamano equivocazione l'incertezza (informazione, entropia) media nel messaggio quando il segnale è noto. Se la sorgente mantiene un residuo di incertezza per il destinatario quando il segnale è noto (e la capacità del canale era adeguata all'entropia della sorgente) tale incertezza è per essi dovuta esclusivamente a disturbo. Analogamente, ci si può riferire all'incertezza media del segnale ricevuto, quando sia noto il messaggio. Se il destinatario mantiene un residuo di incertezza per la sorgente quando il messaggio è noto (e la capacità del canale era adeguata all'entropia della sorgente), tale incertezza è ancora dovuta a disturbo. Come si può vedere, si tratta di una formula probabilistica di doppia contingenza. Torna Su




Static Wikipedia 2008 (no images)


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh