Citazioni |
 |
[…] l’informazione fornita da una unità dipende dalla sua probabilità nel contesto in cui si trova. Un’unità più è probabile, meno è informativa. La probabilità di una unità è presentata in termini di frequenza. Le relazioni fra un numero di unità o frequenza di unità da un lato e informazione dall’altro, dipendono per così dire, dalla definizione stessa di che cos’è l’informazione; sono necessarie e potremmo dire automatiche. Se la frequenza di un elemento diminuisce, la sua probabilità deve anche necessariamente diminuire e niente può impedire che la sua informazione aumenti. (p. 198) - Martinet (1984) Chiamiamo informazione tutto quello che riduce l’incertezza attraverso l’eliminazione di certe possibilità. Questo vuol dire che l’informazione non è la stessa cosa che il significato. Se dico 'ha p'…e mi fermo di colpo, 'p' non ha, naturalmente, significato, ma apporta un’informazione perché esclude la possibilità che la frase possa voler dire 'ha dato' o 'ha visto'. Se dico 'ha pr'…, 'r' non ha significato, ma di nuovo, contribuisce all’informazione perché elimina 'ha parlato' o 'ha pensato'. Questo implica che quello che diremo qui sulla dinamica del linguaggio si applica a tutte le unità linguistiche, distintive o significative, sia ai fonemi che ai monemi. (p. 197) - Martinet (1984)
|