Page 69 - Informatica dalla A a Z
P. 69

Con lo sviluppo della programmazione, ci si rese conto, però, che il numero di simboli ri-
           chiesti, anche nelle situazioni più comuni, era ben maggiore di 128. E allora si decise di
           estendere il codice a 8 bit, per poter esprimere fino a 256 simboli diversi.

           Uno dei vantaggi di questo tipo di codifica è il fatto che a ogni carattere alfabetico corri-

                                                                  59
           sponde un byte, compreso lo spazio (codice ASCII  32), mentre un limite di questa codifica,
           era il fatto che non possedesse i simboli dei caratteri dei linguaggi non derivanti dal “la-
           tino”.


           Nota: il termine ASCII si legge “aschi”, anche se ormai nel modo comune di parlare è stato
           italianizzato in ASCII.


           Tre di questi valori (0, 31 e 127) non sono caratteri stampabili, ma “codici di controllo”

           Per risolvere il problema venne strutturata una nuova codifica più sofisticata denominata
                     60
           “Unicode ”, dove sono definiti, oltre ai caratteri delle lingue di tutto il mondo, anche sim-
           boli chimici, matematici, etc.

           Originariamente si basava su una codifica a 16 bit, che permetteva di codificare max 65.536
           caratteri; ora la codifica è stata estesa fino a poter rappresentare circa un milione di carat-

           teri.

           Nota: ogni simbolo è codificato da una stringa di 2 byte: code point.


           Esistono codifiche per tutte le lingue, ma per utilizzarle, è indispensabile, che sul computer
           sia installata la tabella Unicode corrispondente.

           Nella codifica per la lingua araba, ad esempio, oltre ad avere i caratteri adeguati, vi è l’in-

           dicazione che il cursore sul monitor debba spostarsi da destra a sinistra.

                       61
           Lo scanner  consente ai computer di acquisire immagini e/o disegni e di codificarli in un
           formato digitale, cioé numerico, attraverso il processo di “digitalizzazione”.


           Approfondimento: La digitalizzazione di un’immagine avviene attraverso 2 fasi:

                                 62
           •  Discretizzazione : in questa fase la superficie dell’immagine viene suddivisa in una gri-
               glia di celle (pixel), a ciascuna delle quali corrisponde un colore unico;

           Nota:  questa  caratteristica  risulta  chiaramente  visibile  quando  si  effettua  uno  zoom

           dell’immagine digitale.




           59  Inizialmente era nato come un sistema di codifica dei caratteri basato su 7 bit. Poi si modificò in un sistema a 8 bit per
           raddoppiare il numero di caratteri disponibili. Il suo inventore fu un ingegnere dell’IBM di nome Bob Bemer.
           60  Il codice UNICODE è uno standard internazionale per l’interscambio di informazioni a livello globale.
           61  È un dispositivo di scansione che effettua la digitalizzazione. Permette di impostare la risoluzione di acquisizione, ovvero il
           numero di pixel della griglia di suddivisione dell’immagine originale.
           62  La discretizzazione realizza la trasformazione di uno spazio continuo in uno “discreto”.
                                                             65
   64   65   66   67   68   69   70   71   72   73   74