IL COMPUTER NELLA VITA DI TUTTI I GIORNI

Lascia un commento

                  IL COMPUTER NELLA VITA DI TUTTI I GIORNI

1- Al lavoro

VANTAGGI: Il computer offre infatti il vantaggio indiscutibile di fungere da supporto indispensabile per un considerevole risparmio in termini di tempo e costi, ed offre inoltre: velocità nell’elaborazione dei dati,esattezza nell’esecuzione di operazioni complesse e notevoli capacità di archiviazione

Nelle attività produttive della nostra società le applicazioni del computer sono numerosissimi.

In ufficio, applicazioni di office automation, sistemi ERP ( Enterprice Resource Planning ) per gestire risorse.

In fabbrica vengono utilizzati sia per la progettazione ( CAD Computer Aided Design ) sia per la produzione vera e propria CAM ( Computer Aided Manufacturing ).Anche i macchinari specializzati vengono gestiti da computer, così come i robot che automatizzano le linee di produzione. Nell’ambito delle aziende si sono affermati i cosiddetti EIS (Executive Information System), programmi in grado di fornire uno spaccato riassuntivo della situazione aziendale.

I programmi di elaborazione testi più evoluti sono quelli di desktop publishing che consentono di creare vere e proprie pubblicazioni (layout di pagina, disegni, colori, sfondi e così via): X_PRESS, Adobe Page Maker, Microsoft Publisher e Corel Ventura Publishing sono tra i più diffusi di questi programmi.

Esistono, poi, programmi specifici per redigere il piano finanziario o fare simulazioni, per avere una visione sintetica delle vendite e della produzione e ancora per calcolare il profitto e le potenzialità di profitto.

Nel settore industriale, l’informatizzazione ha contribuito a velocizzare ed a rendere più ordinato il processo produttivo, grazie all’introduzione di apparecchiature automatizzate (dispositivi per il montaggio, arti meccanici, congegni di raccolta e riordino dei materiali, ecc.).

Nelle amministrazioni: i rapporti tra cittadino e pubblica amministrazione sono resi più veloci dalle banche dati computerizzate e dall’uso di tecnologie informatiche.

Anche nella Pubblica Amministrazione, l’uso del computer si è ampiamente diffuso rendendo possibile la creazione di archivi elettronici, tramite i quali è possibile: memorizzare i dati personali dell’utente, rilasciare certificati immediati,organizzare la gestione e il controllo del personale…con gli ovvii conseguenti vantaggi sia da parte degli enti, che da quella dei fruitori.

Nella sanità: il computer aiuta a gestire le informazioni riguardanti i pazienti, le prenotazioni, i pagamento dei tickets. Anche le strumentazioni di analisi e diagnostica sono interfacciate da computer, come ad esempio la TAC ( Tomografia Assiale Computerizzata). Nell’ambito sanitario, l’informazione ha determinato la nascita della telemedicina. La Telemedicina, pur non permettendo il tradizionale rapporto fisico tra medico e paziente, si è andata sempre più diffondendo ed affermando, in virtù del fatto che, sempre più spesso, rappresenta il primo approccio e tramite tra il paziente che riscontra una determinata patologia e le infrastrutture medico/sanitarie addette. Nell’istruzione.

L’informatizzazione ha investito anche il campo dell’istruzione e della didattica, settore in cui l’innovazione principale è costituita dalla cosiddetta FAD (Formazione a distanza).
La FAD si basa generalmente su corsi multimediali, disponibili in versione CD o direttamente online.
Le sue caratteristiche fondamentali sono: la possibilità per l’insegnante di fare formazione a molte persone simultaneamente anche se distanziate in diverse aree geografiche; il grande vantaggio per l’allievo di studiare in maniera più congeniale e nel rispetto dei propri tempi ed impegni personali o professionali;un generale livellamento ed abbattimento dei costi per le Aziende. La FAD viene sempre più utilizzata in situazioni di aggiornamento professionale direttamente sul luogo di lavoro, invece della tradizionale formazione “in aula”, ma offre notevoli vantaggi formativi anche a persone, che privatamente desiderino continuare ad imparare o approfondire le proprie conoscenze.
In genere il metodo su cui si basa l’ insegnamento a distanza è quello dell’auto-apprendimento, la disponibilità di un tutor on-line, e l’apprendimento-collaborativo.
L’auto-apprendimento avviene principalmente tramite lo studio dei materiali teorici e pratici messi a disposizione dell’allievo su supporto digitale.

Telelavoro: E’ la possibilità di lavorare da casa mediante computer. Noto nei paesi di lingua inglese come Telework, può essere definito come una forma di lavoro indipendente dall’ubicazione geografica dell’ufficio o dell’azienda. Il telelavoro è realizzabile attraverso l’impiego di supporti informatici e telematici.
Si estende sia ai lavoratori dipendenti che a quelli autonomi e riguarda una larga fascia di professioni o lavori

IL telelavoro offre:

vantaggi sia al lavoratore, che risparmia i tempi di spostamento e gode di un orario flessibile, che all’azienda che risparmia spazi e costi di gestione delle strutture.

Gli svantaggi sono un minor contatto umano e la minor enfasi del lavoro di gruppo, inoltre rende più difficile la creazione di associazioni sindacali necessarie a garantire un corretto rapporto tra lavoratore e azienda

2- Mondo elettronico

 Lo straordinario progresso delle tecnologie dell’informazione e della comunicazione elettronica sono alla base di un radicale mutamento della nostra società, denominata “società dell’informazione”( Information Society ).
Il sistema produttivo ha come attività centrali quelle di reperimento, elaborazione e smistamento delle informazioni. La società dell’informazione si basa quindi sulla produzione di servizi immateriali anziché di beni tradizionali.
Da qui nasce anche la contrapposizione tra:

Nuova Economia (fondata sullo sfruttamento del patrimonio di conoscenza astratta e virtuale, quale quelle che si possono acquisire tramite internet)…e

Economia tradizionale (che si basa invece sul tradizionale patrimonio materiale).

La realtà lavorativa non è esente da questo cambiamento generale. Basti pensare alle nuove professioni nate grazie ad Internet. Infatti, le nuove opportunità di lavoro che si sono create riguardano la programmazione, le vendite, i servizi, la formazione, ecc

IL computer è indispensabile nella vita di ogni giorno. La società moderna è profondamente legate alla gestione delle informazioni : un problema di tipo informatico può condizionare o mettere in pericolo l’intera struttura sociale : basti pensare al problema del millennium bug Cosa significa “Millennium Bug” ?

“Bug”, nel gergo informatico di tutto il mondo, è parola inglese che significa ‘errore di programmazione’, ed identifica quella situazione per cui un computer produce risultati erronei, o inattesi, o, non di rado, si blocca del tutto infilandosi in situazioni di stallo senza uscita (“unended loop”); l’errore è costituzionalmente inerente all’attività del programmatore, tanto è vero che una fetta notevolissima del tempo di sviluppo dei programmi è dedicata giusto al “debugging”, cioè allo scovare e togliere gli errori commessi, al “fare le pulci” (diremmo noi) alle linee di codice di programma.

Quanto al “Millennium”, il riferimento è al 31 dicembre 1999, che dovrebbe essere la data finale del secondo millennio; in realtà anche questa interpretazione è un “bug” , in quanto, proprio come la prima decina inizia con 1 e termina con il 10, e il primo centinaio termina con il 100, il secondo millennio terminerà con il 31 dicembre del 2000.
In conclusione “Millennium Bug” significa “l’errore di programmazione connesso con il cambio di millennio”, ( il passaggio cioè dall’anno 1999 al 2000 nei sistemi informatici con poca memoria che utilizzavano solo le ultime 2 cifre per l’indicazione delle date ) e gli anglofoni giocano spesso sul doppio significato errore/insetto per presentare l’errore umano sotto forma di mostriciattoli vari, che ha messo in pericolo tutto il sistema informatico.

Il millennium bug è anche noto sotto la sigla Y2K , che non va pronunciata “ipsilonduecappa”, pena l’occhiata di compatimento da parte degli informati/ci, va invece pronunciata “uaitukèi”, con “uai” che è lo spelling della lettera Y, “tu” che è la pronuncia di two (2) e “kèi” che è lo spelling della lettera K.
Il tutto è poi l’acronimo di Y(ear) 2K(2000), cioè molto banalmente l’anno duemila, con la K delle migliaia che troviamo anche nei nostrani chilogrammi (Kg) etc.

3- USO DEL COMPUTER NELLA VITA QUOTIDIANA

Nella nostra vita quotidiana utilizziamo i computer in moltissime situazioni: Al supermercato, è possibile rilevare automaticamente il prezzo di un prodotto attraverso il codice a barre. nei negozi è possibile effettuare il pagamento con il bancomat o carte di credito

In aeroporto o alla stazione ferroviaria o nelle stesse agenzie di viaggi, è possibile acquistare i biglietti o avere informazioni tramite terminali self-service.

In molti settori l’utilizzo delle smart card (carte intelligenti) ci aiuta nella fruizione di servizi pubblici e privati. Le smart card o carte intelligenti sono simili alle carte di credito ma che contengono un chip in miniatura. devono essere lette da speciali lettori. Basti pensare anche alle carte telefoniche, al badge che si adopera in ufficio,ai libretti universitari o di previdenza sociale.

Sempre grazie ad Internet è possibile effettuare operazioni in borsa ( trading on line ) o eseguire transazioni bancarie.

La posta elettronica: è’ uno strumento di lavoro e di comunicazione estremamente potente, che ha conosciuto un notevole sviluppo negli ultimi anni. e-mail ha molti vantaggi: rapidità , possibilità di invio oggetti multimediali permette di distribuire facilmente copie a più destinatari possibilità di avere una conferma della ricezione della postail commercio elettronico: si sta sviluppando in questi anni come uno dei servizi più importanti di internet.

L-e commerce viene gestito da siti specializzati che richiedono una registrazione. IL pagamento può avvenire mediante carta di credito o pagamento alla consegna. Dal punto di vista legale valgono le stesse regole che regolano le vendite per corrispondenza , quindi vi è la possibilità di restituire la merce se risulta danneggiata.

Vantaggi dell’e-commerce: Permette di acquistare prodotti ad ogni ora del giorno e della notte, saltando i canali di distribuzione intermedia. permette di confrontare prezzi e servizi di siti diversi. comodità di far acquisti da casa..

e svantaggi :la difficoltà di valutare la qualità del prodotto, la mancanza di un servizio di consulenza i rischi legati al pagamento tramite carta di credito torna al menu.

 

 

Il Suono

Lascia un commento

 

I SUONI

 

I suoni costituiscono un tipo di informazione con cui siamo costantemente a contatto (linguaggio parlato, musica, rumori)

I suoni possono essere rappresentati in forma digitale.

Dal punto di vista fisico un suono è un’alterazione della pressione dell’aria che, quando rilevata, ad esempio dall’orecchio umano, viene trasformata in un particolare stimolo elettrico e, tramite complicati processi cognitivi, interpretata.

La durata, l’intensità e la frequenza sono le quantità fisiche che rendono un suono diverso da ogni altro.

Inoltre un suono è rappresentato come un’onda (onda sonora).

I suoni possono essere memorizzati e sintetizzati. Nel primo caso un brano prima di essere memorizzato deve essere stato digitalizzato, trasformato cioè in un insieme di bit, secondo particolari tecniche. Un suono digitalizzato occupa molto spazio, ed esistono perciò tecniche di campionatura che permettono di ridurre la quantità di bit necessari per ottenere suoni ugualmente comprensibili. Il brano può quindi essere ascoltato senza particolari accorgimenti.

Per alcuni tipi di applicazioni viene usata una particolare tecnica, che consiste nel memorizzare piccole porzioni di testo da utilizzare per comporre messaggi più complessi.

Alcuni messaggi vocali sono invece realizzati tramite suoni sintetizzati. Il messaggio viene memorizzato sotto forma di testo, e verrà  trasformato in un insieme di suoni da un apposita apparecchiatura hardware chiamata “sintetizzatore vocale”.

 

FORMATI AUDIO

 

MIDI:  contiene una sequenza di comandi in grado di pilotare un circuito di sintesi audio (tastiera o scheda audio). Sono file di dimensione limitata,ma per essere ascoltati con una buona fedeltà di riproduzione richiedono schede dotate di una collezione di suoni adeguata.

 

WAVE: è un formato che si basa su una tecnica di campionamento analoga a quella utilizzata per i CD audio.

È possibile utilizzare diversi livelli di qualità (8 o 16 bit si risoluzione, da 11 a 44 khz di frequenza di campionatura).

Più alta è la qualità, maggiore è l occupazione di memoria.

 

MP3: è un formato di compressione audio di tipo lossy. Mantiene un’alta qualità di riproduzione,paragonabile a quella dei CD audio.  A parità di durata della traccia audio, occupa fino a 60 volte meno spazio di un file WAV.

 

STREAMING: il termine streaming identifica un flusso di dati audio/video trasmessi da una sorgente a una o più destinazione tramite una rete telematica.

Esistono due tipologie di streaming:

–      STREAMING ON DEMAND

–      STREAMIND LIVE

 

STREAMING ON DEMAND

I contenuti audio/video sono inizialmente compressi e memorizzati su un server come file. Un utente può chiedere al server di inviargli i contenuti audio/video. Una volta ricevuti i dati vengono decompressi dal Decoder e riprodotti pochi secondi dopo l’inizio della ricezione. Questo ritardo serve a creare un polmone per rimediare alle microinterruzioni delle rete.

 

STREAMING LIVE

Anche i dati in questo caso sono trasmessi utilizzando opportune compressioni per alleggerire più possibile il carico sulla rete. La compressione dei contenuti introduce nel flusso un ritardo di circa 10 secondi. Nel campo dello streaming live, di solito, questo ritardo non costituisce un problema.

 

 

TRASDUTTORI

 

Esistono due tipi di trasduttori:

–      ALTOPARLANTE

–      MICROFONO

 

L’altoparlante è un attuatore che converte un segnale elettrico in onde sonore.

Perciò si può definire come TRADUTTORE ELETTROACUSTICO. Il suono in sostanza è generato da una serie di compressioni e rarefazioni dell’aria, e il compito dell’altoparlante è appunto di generare  tali compressioni e rarefazioni nell’ambiente  d’ascolto.

 

Il microfono invece è un trasduttore di tipo elettro-meccanico in grado di convertire le onde di pressione sonora in segnali elettrici.

 

Copyright

Lascia un commento

Il copyright (termine di lingua inglese che letteralmente significa diritto di copia) è l’equivalente del diritto d’autore nei paesi di common law, come gli Stati Uniti e la Gran Bretagna, dal quale però differisce sotto vari aspetti.

È solitamente abbreviato con il simbolo ©. Quando tale simbolo non è utilizzabile si riproduce con la lettera “c” posta tra parentesi: (c) o (C).[1]

Storia

Le prime norme sul diritto di copia (copyright) furono emanate dalla monarchia inglese nel XVI secolo con la volontà di operare un controllo sulle opere pubblicate nel territorio. Col diffondersi delle prime macchine automatiche per la stampa, infatti, iniziò ad affermarsi una libera circolazione fra la popolazione di scritti e volumi di ogni argomento e genere. Il governo, poiché la censura era all’epoca una funzione amministrativa legittima come la gestione della sicurezza pubblica, avvertì il bisogno di controllare ed autorizzare la libera circolazione delle opinioni.[2] Ragion per cui fondò una corporazione privata di censori – la London Company of Stationers (Corporazione dei Librai di Londra) – i cui profitti sarebbero dipesi da quanto fosse stato efficace il loro lavoro di censura filo-governativa.[2]

Agli Stationers (ovvero gli editori) furono concessi i diritti di copia (copyright, appunto) su ogni stampa, con valenza retroattiva anche per le opere pubblicate precedentemente. La concessione prevedeva il diritto esclusivo di stampa, e quello di poter ricercare e confiscare le stampe ed i libri non autorizzati, finanche di bruciare quelli stampati illegalmente.[3] Ogni opera, per essere stampata, doveva essere registrata nel Registro della corporazione, registrazione che era effettuabile solamente dopo un attento vaglio ad opera del Censore della corona o dopo la censura degli stessi editori. La corporazione degli editori esercitava perciò a tutti gli effetti funzioni di polizia privata, dedita al profitto e controllata da parte del governo.[3]

Ogni nuova opera veniva annotata nel registro della corporazione sotto il nome di uno dei membri della corporazione il quale ne acquisiva il “copyright”, ovvero il diritto esclusivo sugli altri editori di pubblicarla; una corte risolveva le eventuali dispute fra membri.[4] Il diritto sulle copie (copyright), perciò, nasce come diritto specifico dell’editore, diritto sul quale il reale autore non può quindi recriminare alcunché né guadagnare di conseguenza.

Nel successivo secolo e mezzo la corporazione dei censori inglesi generò benefici per il governo e per gli editori: per il governo, esercitando un potere di controllo sulla libera diffusione delle opinioni e delle informazioni; per gli editori, traendo profitto dal proprio monopolio di vendita. Sul finire del XVII secolo, però, l’imporsi di idee liberali nella società frenò le tradizionali politiche censorie e causò una graduale fine del monopolio delle caste editrici.

Temendo una liberalizzazione della stampa e la concorrenza da parte di stampatori indipendenti ed autori, gli editori fecero valere la propria moral suasion sul Parlamento. Basandosi sull’assunto che gli autori non disponessero dei mezzi per distribuire e stampare le proprie opere (attività all’epoca assai costosa e quindi riservata a pochi), mantennero tutti i privilegi acquisiti in passato con un’astuzia: attribuire ai veri autori diritti di proprietà sulle opere prodotte, ma con la clausola che questa proprietà potesse essere trasferita ad altri tramite contratto.[2] Di lì in poi gli editori non avrebbero più generato profitto dalla censura sulle opere, ma semplicemente dal trasferimento dei diritti firmato (più o meno volontariamente) dagli autori, trasferimento in ogni caso necessario per la altrimenti troppo costosa pubblicazione delle opere.[2]

Su queste basi, nel 1710 venne perciò emanata la prima norma moderna sul copyright: lo Statuto di Anna (Statute of Anna).

A partire dalla Statuto di Anna, gli autori, che fino ad allora non avevano detenuto alcun diritto di proprietà, ottennero in sostanza il (tutto sommato vacuo) potere di bloccare la diffusione delle proprie opere, mentre la corporazione degli editori incrementò i profitti grazie alla cessione – sostanzialmente obbligatoria per ottenere stampa e distribuzione – da parte degli autori dei vari diritti sulle opere.[4]

Il rafforzamento successivo dei diritti d’autore su pressione delle corporazioni, generò gradualmente il declino di altre forme di sostentamento per gli autori (come il patronato, la sovvenzione, ecc.), legando e sottoponendo indissolubilmente il sostentamento dell’autore al profitto dell’editore.[5]

Nel corso dei successivi due secoli anche la Francia, la Repubblica Cisalpina, il Regno d’Italia, il Regno delle Due Sicilie e il resto d’Europa emanarono legislazioni per l’istituzione del copyright (o del diritto d’autore).

  • nel 1836, il codice civile albertino per la Sardegna.
  • nel 1840, il 22 dicembre, il decreto di Maria Luigia, per il Ducato di Parma, Piacenza e Guastalla.
  • nel 1865, il 25 giugno, nel Regno d’Italia, con legge 2337.

Talune con ispirazioni maggiormente illuministe e democratiche rispetto a quella anglosassone, pur tuttavia con la medesima radice.

Nel 1886, il 9 settembre, fu costituita l’Unione internazionale di Berna, per coordinare i rapporti in questo campo, di tutti i paesi iscritti, ancora oggi operante.

Lo sviluppo tecnologico e l’avvento di Internet

Nel XX secolo, l’avvento dei riproduttori ed in particolare del computer e delle Rete internet, ha sottratto uno dei cardini alla base del copyright in senso classico: ovvero il costo e la difficoltà di riprodurre e diffondere sul territorio le opere, aspetti fino ad allora gestiti dalla corporazione degli editori dietro congruo compenso o cessione dei diritti da parte degli autori. Ciò ha reso assai difficile la tutela del copyright come tradizionalmente inteso, e creato nuovi spazi per gli autori.

Il primo episodio con eco internazionale, si è avuto a cavallo fra il XX e il XXI secolo con il cosiddetto caso Napster, uno dei primi sistemi di condivisione gratuita di file musicali, oggetto di enorme successo a cavallo del millennio. La chiusura di Napster, avvenuta nel 2002 e generata dalle denunce dagli editori che vedevano nel sistema un concorrente ai propri profitti, non ha risolto se non per breve tempo gli attriti. Nuovi programmi di file sharing gratuito sono sorti rimpiazzando l’originale Napster e vanificando gli scopi della chiusura. Secondo gli operatori del mercato dell’intrattenimento, una costante diminuzione delle vendite di cd musicali è scaturita dalla diffusione di questi sistemi e della progressiva obsolescenza della precedente tecnologia, obsolescenza dovuta principalmente all’eccessivo costo d’acquisto di materiale originale.[6] Ciò ha danneggiato principalmente il sistema corporativo e ingessato dell’industria discografica. Ci sono, tuttavia, autorevoli studi che sostengono il contrario.

Il file sharing (scambio e condivisione di file) di materiale protetto dal copyright, si è sviluppato e diffuso con l’imporsi delle tecnologie informatiche e del web, e in particolar modo grazie al sistema del peer-to-peer. La velocità di questa diffusione e sviluppo, ha reso difficile per il diritto industriale internazionale aggiornarsi con la medesima prontezza. Molti analisti internazionali accusano infatti la presenza di vuoti normativi non omogeneamente colmati.

Copyleft

Nel 1984, Richard Stallman e la Free Software Foundation svilupparono un meccanismo originato dal copyright, specifico per la gestione dei diritti sulla proprietà dei software. Utilizzando un doppio senso della lingua inglese (nella quale “right” significa sia “diritto”, sia “destra”) denominarono questo meccanismo copyleft (“left” significa sia “lasciato”, sia “sinistra”, a sottolineare una filosofia opposta a quella del copyright); tale principio è stato ampiamente applicato nell’ambito del software libero.

Legislazioni nazionali in materia di copyright [modifica]

Le legislazioni nazionali tendono al bilanciamento del diritto d’autore con gli altri diritti garantiti dalle Costituzioni:

  • libertà economica, che si esplica nel diritto all’iniziativa privata e alla proprietà privata: se la proprietà privata è protetta dal diritto d’autore, l’iniziativa privata è limitata dalla durata del copyright e dalla possibilità del detentore dei diritti di ridurre o annullare, anche dietro equo compenso, l’utilizzo di terzi. Il diritto antitrust trova uno scopo nell’impedire la formazione di monopoli legali non naturali, che ledono la libertà di impresa e sono stati storicamente un pericolo per le democrazie, non dovuti a risorse scarse, quali non sono e non possono essere per loro natura le informazioni, infinitamente replicabili.
  • diritti soggettivi indisponibili della persona: libertà di parola di pensiero e dell’arte, diritto alla salute e all’istruzione, e più in generale alla qualità della vita, felicità-realizzazione del sé; privacy intesa come inviolabilità della proprietà privata e del domicilio, e come segretezza delle comunicazioni personali ed elettroniche.

Stati Uniti d’America

Negli Stati Uniti la legislazione in materia di copyright è contenuta nel Titolo 17 dello United States Code. Le violazioni di copyright sono pertanto considerate reato federale e possono comportare, in sede civile, multe fino a 100.000$.

Tuttavia la legge statunitense prevede il concetto di fair use, che lascia ampi spazi per la riproduzione di opere con scopi didattici o scientifici. In Italia la pretesa della Siae di richiedere compensi per diritto d’autore anche per le attività didattiche è stata oggetto di un’interrogazione parlamentare del senatore Mauro Bulgarelli, che ha chiesto di valutare l’opportunità di estendere anche in Italia il fair use.

Nei Paesi del Common Law (Gran Bretagna, Australia, Nuova Zelanda, Singapore) l’attenuazione alla rigidità del copyright è regolata dal fair dealing, che esenta le attività didattiche ed altre ipotesi dall’usuale normativa.

Le direttive europee

Il Parlamento europeo è intervenuto in materia di copyright con la Direttiva enforcement nel 2004, con importanti emendamenti a difesa degli utenti. Ha poi emanato nel 2007 una seconda direttiva, detta IPRED2, a maggiore tutela dei detentori di diritti d’autore.

La regola della prima scadenza

In base alla Convenzione di Berna è stata introdotta la Regola della prima scadenza.

Considerazioni generali

Deroghe ai diritti per pubblica utilità

La proprietà intellettuale può essere oggetto di “esproprio” per fini di pubblica utilità, che prevalgono sull’interesse del privato. In un caso del genere, rientra la distruzione o lo spostamento ad altro sito di un’opera d’arte anche contemporanea, per realizzare un’autostrada o una ferrovia; oppure la produzione di un farmaco che è troppo costoso acquistare dal legittimo produttore, non riconoscendo validità al brevetto sul territorio nazionale e non pagando il copyright allo scopritore in deroga ad un brevetto internazionale depositato all’estero (si tratta della importazione forzata e registrazione parallela).

La definizione di pubblica utilità, per quanto ampia e discrezionale, solitamente riguarda prodotti tangibili, non la fruizione di servizi, come potrebbe essere un intrattenimento musicale.

Proprietà intellettuale e bene comune

A sostegno di una disciplina giuridica dei brevetti sorgono una serie di considerazioni in particolare nel settore delle arti.

Le arti (scultura, pittura, etc.) sono considerate un fattore di crescita della società e del cittadino, cui tutti hanno diritto di accesso in base ad un diritto all’istruzione e di un diritto, da questo indipendente, alla fruizione della bellezza, quale bisogno dell’uomo, poiché la legge non deve limitarsi a garantire il soddisfacimento delle necessità primarie della persona, ma la possibilità di una sua completa realizzazione.

Altri sostengono che l’arte non è mai il prodotto di un singolo individuo, e che non è quantificabile il contributo e le influenze che qualunque artista ha avuto, anche in modo inconsapevole, da altri artisti e uomini comuni, passati e contemporanei, e il debito dell’autore nei loro confronti. In questo senso, l’opera è prodotto e proprietà di una società e di un’epoca, più che di un individuo e dei suoi eredi.

Il principio di un diritto collettivo alla fruizione della bellezza e all’apprendimento dall’arte, nelle loro opere originali sono state idee che portarono nel ‘700 alla nascita dei primi Musei che erano concepiti come il luogo in cui l’arte veniva valorizzata e doveva essere conservata, piuttosto che all’interno di collezioni private gelosamente custodite.

Pure per la musica, per quanto sia un’arte non “tangibile”, alcune considerazioni spingono per un diritto d’accesso collettivo che può esserci solo a titolo gratuito o comunque a basso costo: il fatto che la musica è cultura e i cittadini hanno diritto d’accesso ai livelli più alti dell’istruzione, il diritto allo studio nei conservatori che richiedono spese notevoli per lo strumento e il materiale didattico musicale, la bellezza come bene comune e valore apartitico.

Durata ed ereditarietà del copyright

La normativa prevede una durata del copyright limitata nel tempo e variabile significativamente a seconda della categoria merceologica tutelata (medicinali, brani musicali, software, ecc.).

Il periodo di copyright dovrebbe consentire di avere un adeguato margine di guadagno e di recuperare i costi che precedono l’entrata in produzione e la distribuzione del prodotto. La durata, in linea di principio, è proporzionale ai costi da remunerare. Tuttavia non sempre la proporzione viene rispettata. Per esempio un brano musicale ha una durata di copyright di 50 anni, mentre per un medicinale, che ha costi di ricerca e sviluppo assai maggiori, il periodo di copertura è di 30 anni.

Storicamente, la morte dell’autore causava l’estinzione del copyright. In seguito, il diritto d’autore è passato agli eredi del soggetto e quindi la durata prevista dalla legge è prescrittiva (30/70 anni in ogni caso). È stata modificata anche la distribuzione dei margini: all’editore tocca talvolta più dell’autore, talora più del 50% (a fronte di un equo margine che per un intermediario è generalmente intorno al 20%).

Dibattito sulle pene per la violazione del copyright

Nelle legislazioni internazionali è frequente una tendenza all’equiparazione fra la violazione del copyright e il reato di furto.

Esiste un dibattito non solo sull’entità delle pene che una simile equiparazione comporta, ma anche sulla reale opportunità di accomunare le due tipologie di reato. L’equiparazione al furto comporta infatti un considerevole inasprimento delle pene.

Analogo dibattito investe il rispetto del proporzionalismo fra le pene rispetto alla gravità del reato. Il plagio, infatti, prevede pene inferiori al furto (sebbene l’utilizzo commerciale sia un’aggravante nella violazione di copyright). In sostanza, chi copia e vende opere in forma identica all’originale commette un reato punito molto più severamente del plagio, ovvero di chi apporta lievi modifiche e si appropria di una qualche paternità sull’opera, traendone profitto.

Caso eclatante di violazione

Nel 2008 gli eredi di Chet Baker hanno fatto causa contro le mayor discografiche (Sony BMG, EMI Music, Universal Music e Warner Music) per violazione del copyright. A loro, dopo poco, si sono aggiunti altri artisti fino ad arrivare ad una class action. Le case discografiche sfruttavano commercialmente i brani senza pagare i diritti agli autori dichiarando semplicemente che non era possibile rintracciarli (anche artisti del calibro di Bruce Springsteen).[7][8]

Ciclo di vita di un software

Lascia un commento

Il « Ciclo di vita di un software » (in inglese software lifecycle), designa tutte le varie tappe dello sviluppo di un sfotware, dalla sua concezione alla sua scomparsa. L’obiettivo di una divisione simile e di permettere di definire degli stadi intermedi che permettano la validazione dello sviluppo del software, cioè la conformità del software secondo i bisogni espressi, e la verificadel processo di sviluppo, cioè l’adeguatezza dei modelli attuati.

L’origine di questa divisione proviene dalla constatazione che gli errori hanno un costo tanto più elevato quanto la loro rilevazione avviene tardivamente nel processo di realizzazione. Il ciclo di vita permette di rilevare gli errori il prima possibile e quindi di controllare la qualitàDel software, dei tempi di realizzazione e i costi associati.

Il ciclo di vita del software comprende generalmente almeno le seguente attività :

  • Definizione degli obiettivi, che consiste nel definire la finalità del progetto e la sua iscrizione in una strategia globale.
  • Analisi dei bisogni e della fattibilità, cioè l’espressione, la raccolta e la formalizzazione dei bisogni del richiedente (il cliente) e dell’insieme dei limiti.
  • Concezione generale. Si tratta dell’elaborazione delle specifiche dell’architettura generale del software.
  • Concezione dettagliata, che consiste nel definire precisamente ogni sotto-insieme del software.
  • Codifica (Implementazione o programmazione), ossia la traduzione in un linguaggio di programmazione delle funzionalità definite in fase di concezione.
  • Test unitari, che permettono di verificare individualmente che ogni sotto-insieme del software sia implementato conformemente alle specifiche.
  • Integrazione, con l’obiettivo di assicurare dell’interfacciamento dei diversi elementi (moduli) del software. Essa è l’oggetto dei test di integrazione Definiti in un documento.
  • Qualifica (o ricetta), cioè la verifica della conformità del software alle specifiche iniziali.
  • Documentazione, che punta a produrre le informazioni necessarie per l’uso del software o per gli ulteriori sviluppi.
  • Produzione,
  • Manutenzione, che comprende tutte le azioni correttive (manutenzione correttiva) e evolutive (manutenzione evolutiva) sul software.

La sequenza e la presenza di ognuna di queste attività nel ciclo di vita dipende dalla scelta di un modello di ciclo di vita tra il cliente e l’équipe di sviluppo.

Modelli di cicli di vita

Per essere in grado di avere una metodologia comune fra il cliente e la società di servizi che si occupa dello sviluppo, sono stati messi a punto dei cicli di vita che definiscono le tappe dello sviluppo nonché i documenti da produrre per validare ogni tappa prima di passare alla successiva. Alla fine di ogni fase, si organizzano delle revisioni per

Modello a cascata

Il modello di ciclo di vita a cascata è stato messo a punto a partire dal 1966, per essere formalizzato verso il 1970. Esso definisce delle fasi sequenziali secondo le quali vengono prodotti dei documenti per verificarne la conformità prima di passare alla successiva :

cycle de vie en cascade

 

Modello a V

Il modello di ciclo di vita a V parte dal principio che le procedure di verifica della conformità del software rispetto alle specifiche devono essere elaborate a partire dalle fasi di concezione.

cycle de vie en V  

              ..Erica.. :*

Memorie di massa

Lascia un commento

In Informatica  si distinguono due tipi di memoria: la memoria  principale, costituita fondamentalmente da memoria RAM, memoria ROM, memoria Cache, e la memoria secondaria o memoria di massa.

Le memorie di massa si differenziano per il tipo di tecnologia adottata per memorizzare i dati: tecnologia magnetica, tecnologia ottica e tecnologia magneto-ottica.

 

Il termine Memoria di massa viene utilizzato per riferirsi ad un apparecchio o dispositivo che permette di registrare, conservare e rileggere i dati (che possono essere file, programmi, il sistema operativo, etc).

La memoria di massa può essere fissa (l’hard disk, montato in maniera permanente nel computer) oppure rimovibile (pennette USB, DVD). Può anche essere collegata al computer tramite cavo o rete locale, e può essere riscrivibile o di sola lettura.

Si dividono in :

HARD DISK (disco fisso/rigido): è la memoria di massa più importante. Contiene centinaia di GByte; è formato da molti dischi che girano a forte velocità. La lettura/scrittura è prodotta da un’apposita testina. Ha una velocità minore della ram essendo meccanico, cioè la ram è 1 milione di volte più veloce dell’hard disk.

FLOPPY DISK: sono dischetti magnetici, portatili, capacità 1,44 MB. Ormai vecchi (obsoleti).

CHIAVETTA USB (pen drive): piccole dimensioni, grande capacità, basso costo.

CD ROM: nati per contenere file musicali (inventati dalla Philips); sono a sola lettura; 700 MB di capienza media. CD – R: si possono scrivere una volta sola e si possono leggere migliaia di volte. Scrivere su un cd prende il nome di masterizzazione.

CD – RW: si possono scrivere più volte.

DVD: nati per contenere film in formato digitale da 4,7 GB in su.

BUS: collegamento tra i vari componenti della scheda madre. Maggiore è il numero di bit, maggiore è la velocità.

Nastri magnetici. Essi servono per conservare grandi quantità di dati o per fare il backup del sistema (cioè copia di tutto il contenuto dell’hard disk) per prevenire perdite di dati per malfunzionamento della macchina, sempre in agguato.

 

                                                                     

 

  Memorizzare dati                                          

La memorizzazione dei dati, nel caso di memorie non riscrivibili (per esempio CD-R) avviene progressivamente, riempiendo lo spazio in ordine progressivo di indirizzo (nell’esempio del CD-R, se abbiamo 700 MiB di spazio, ma ne utilizziamo 658, le tracce vuote saranno quelle più esterne, come è facilmente visibile, guardando la superficie del Cd).

Per quanto riguarda le memorie riscrivibili (per esempio gli hard disk) il data-storage viene eseguito fondamentalmente secondo tre possibili criteri:

1.          first-fit: si cerca la prima locazione di memoria abbastanza grande da ospitare il file da salvare

2.          best-fit: si cerca la più piccola locazione di memoria abbastanza grande da ospitare il file da salvare

3.          worst-fit: si cerca la più grande locazione di memoria disponibile (può sembrare, a prima vista, un assurdo, ma ciò spesso permette che la parziale occupazione della locazione lasci abbastanza spazio libero per ospitare un altro file).

CODIFICA DELLE INFORMAZIONE

Lascia un commento

CODIFICA DELLE INFORMAZIONI
Il morse è stato la prima codifica a permettere una comunicazione a lunga distanza. E’ stato ‘Samuel F.B.Morse a metterlo a punto nel 1844. Questo codice è composto da punti e tratti (una specie di codifica binaria …). Esso permise di effettuare delle comunicazioni molto più rapide rispetto a quello che permetteva di fare il sistema di posta utilizzato a quell’epoca negli USA: il Pony Express. L’interprete all’epoca era l’uomo, quindi bisognava avere una buona conoscenza del codice…
Numerosi codici furono poi inventati fra cui il codice d’Emile Baudot (detto fra l’altro code Baudot, gli inglese lo chiamavano a loro volta Murray Code).
Il 10 marzo 1876, il Dott. Graham Bell mise a punto il telefono, un’invenzione rivoluzionaria che permise di far circolare l’informazione vocale in linee metalliche. Per cronaca, la Camera dei rappresentanti ha deciso che l’invenzione del telefono va attribuita ad Antonio Meucci. Quest’ultimo aveva in effetti depositato una richiesta di brevetto nel 1871, ma non aveva potuto finanziarla fino al 1874.
Queste linee permisero lo sviluppo di telescrittori, delle apparecchiature di codifica e decodifica dei caratteri grazie al codice Baudot (i caratteri erano allora codificati a 5 bits e ce n’erano solamente 32…).
Negli anni 60, il codice ASCII è adottato come standard. La sigla “ASCII” sta per American Standard Code for Information Interchange” ,” Standard americano per lo scambio di informazioni”. Il codice fu inventato da Bob Bemer, ingegnere dell’ IBM, nel 1961; fu proposto dall’ANSI ( American National Standard Institute) nel 1963 e divento definitivo nel 1968. Fu inventato per le comunicazioni tra telescriventi poi man mano è diventato uno standard mondiale. Esso permette la codifica dei caratteri su 8 bits, con 256 caratteri.
• Le codifiche da 0 a 31 non sono dei caratteri. Si chiamano caratteri di controllo dato che permettono di fare delle azioni come :
o ritorno a capo (CR)
o Bip sonoro (BEL)
• Le codifiche da 65 a 90 rappresentano le maiuscole
• Le codifiche da 97 a 122 rappresentano le minuscole
(basta modificare il sesto bit per passare dalle maiuscole alle minuscole, aggiungendo 32 al codice ASCII sulla base decimale.)
Una soluzione migliore è venuta da Unicode, un ente che si è posto il problema di descrivere in un’unica tabella, o meglio, in uno spazio concettuale, tutti i caratteri esistenti in tutti gli alfabeti noti, e anche qualcosa di più. Simboli, alfabeti nascenti, futuri, futuribili e ipotetici: tutti sono descritti nello spazio Unicode che comprende più di un milione di caratteri, divisi in “mappe” di 64000 caratteri circa. Uno spazio del genere ha il pregio di assegnare un numero univoco a tutti i caratteri esistenti e non ancora esistenti, in modo che si possano referenziare tutti contemporaneamente.

conversione analogico-digitale

Lascia un commento

La conversione analogico-digitale è un procedimento che associa a un segnale analogico (tempo continuo e continuo nei valori) un segnale numerico (tempo discreto e discreto nei valori). Questo procedimento oggi è effettuato esclusivamente tramite circuiti integrati dedicati.La conversione analogico-digitale si può suddividere in quattro parti principali: 1)filtraggio del segnale 2)campionamento del segnale 3)quantizzazione dei campioni 4)codifica dei campioni quantizzati I filtri vengono solitamente usati nei sistemi di elaborazione numerica dei segnali. il campionamento è una tecnica che consiste nel convertire un segnale continuo nel tempo in un segnale discreto. In parole povere il campionamento consiste nell’andare a “sentire” (misurare, registrare) il valore del segnale analogico in diversi istanti di tempo. Il tempo T che intercorre tra una valutazione e l’altra si chiama periodo di campionamento. La frequenza di campionamento F=1/T è invece il reciproco del periodo di campionamento. Affinché una grandezza sia trasmissibile e codificabile con un numero finito di bit ovvero in forma numerica, è però necessario che essa possa assumere solo un numero finito di valori di codominio discreti; ciò avviene tramite un successivo processo di quantizzazione del valore in ordinata della grandezza in questione.

“Ergonomia e Computer”

2 commenti

Nell’uso quotidiano del computer si tende a trascurare l’ergonomia della postazione. Per prevenire gli effetti di sbagliate abitudini di postura, indichiamo alcuni semplici suggerimenti.
Il piano di lavoro e l’hardware

il primo fattore di prevenzione è la disposizione dell’hardware , è fondamentale che la tastiera sia collocata ad una distanza tale da garantire l’appoggio degli avambracci sul piano di lavoro e che la distanza tra gli occhi e il monitor sia tra i 50 e i 70 cm. per non affaticare inutilmente i muscoli del collo. La scrivania deve essere stabile e di altezza, fissa o regolabile, indicativamente tra 70 e 80 cm; con uno spazio sufficiente per garantire una posizione comoda e libertà di movimento delle gambe, avere una superficie preferibilmente di colore chiaro ed in ogni caso non riflettente per impedire possibili riflessi.
Nell’acquisto di un monitor verificate la presenza della marcatura CE che vi garantisce sul rispetto dei limiti di legge relativamente all’emissione di campi elettromagnetici. Compatibilmente con le vostre risorse cercate di non risparmiare sulla qualità del monitor e della scheda grafica Più che alle dimensioni del monitor LCD fate attenzione alla presenza dell’ingresso DVI che, in abbinamento ad una scheda grafica provvista di uscita digitale, vi garantisce la connesione più stabile e con la migliore qualità visiva. Caratteristiche irrinunciabili sono una buona definizione e contrasto, luminosità, stabilità delle immagini, assenza di “sfarfallamenti”, contrasto e luminosità regolabili, basamento orientabile e inclinabile liberamente.
Le tastiere devono essere dissociate dallo schermo per consentirvi di assumere una posizione confortevole, non affaticante per le mani e le braccia. Posizionate il mouse di fianco alla tastiera, per poterlo muovere senza impedimenti e in modo rilassato.
Il sedile dev’essere stabile, antiribaltamento, permettere una certa libertà di movimento, meglio se girevole, con altezza regolabile, schienale regolabile in altezza e inclinazione e buon appoggio lombare per una posizione comoda. Se nonostante le regolazioni del sedile non riuscite ad appoggiare i piedi sul pavimento è bene utilizzare un poggiapiedi.

La posizione corretta
Per prevenire disturbi alla schiena e al collo è importante assumere una posizione corretta quando si rimane seduti per molto tempo davanti al computer. Innanzitutto lo schienale della poltrona va regolato in posizione verticale, cercando la posizione più confortevole per il supporto lombare e si deve regolare anche l’altezza della seduta in modo da permettere di appoggiare tutta la pianta dei piedi al pavimento in modo naturale. anche la posizione che si assume davanti al monitor ha importanza ai fini della prevenzione, per questo sono da evitare posizioni a 45 gradi che impongono torsioni al collo innaturali, mentre una posizione frontale con la linea degli occhi all’altezza della cornice superiore del display è la meno affaticante.la digitazione e l’uso del mouse devono avvenire in in modo sciolto senza irrigidimenti delle dita e del polso, con gli avambracci sempre appoggiati sulla scrivania in modo da non sovraccaricare i muscoli del collo e delle spalle. Per quanto possibile si deve cercare di evitare posture fisse per tempi troppo prolungati, in questi casi è utile ricordarsi di cambiare ogni tanto la posizione, muoversi e alzarsi dalla postazione per rilassare i muscoli. Di grande utilità, se praticati con costanza, sono gli esercizi di stretching specifici per il collo, la schiena, le braccia e le gambe.
Come disporre il monitor

al fine di evitare riflessi sullo schermo, abbagliamenti ed eccessivi contrasti di luminosità, se necessario agire sulle tende per ridurre l’intensità della luce. Con l’illuminazione artificiale verificate che le lampade siano poste al di fuori del campo visivo, per evitare abbagliamenti, riflessi sullo schermo, contrasti eccessivi. Le condizioni di maggiore comfort visivo si raggiungono con un’illuminazione non eccessiva. Orientate ed inclinate lo schermo per eliminare, per quanto possibile, riflessi residui sulla sua superficie.
Assumete una posizione di fronte al video in modo tale che la distanza occhi-schermo sia compresa tra 50-70 cm. Se si svolgono spesso lavori di trascrizione o copiatura è utile disporre un porta-documenti alla stessa altezza e distanza dello schermo, per ridurre al minimo i movimenti del capo e di messa a fuoco. Distogliete periodicamente lo sguardo dal video e guardate oggetti lontani per ridurre l’affaticamento visivo. Regolate se necessario contrasto e luminosità e pulite periodicamente lo schermo. Durante le pause, è opportuno non dedicarsi ad attività che richiedano uno sforzo visivo ravvicinato, come ad esempio la lettura di un giornale.

compressione dei dati

Lascia un commento

In informatica e telecomunicazioni con il termine compressione dati si indica la tecnica di elaborazione dati che, attuata a mezzo di opportuni algoritmi, permette la riduzione della quantità di bit necessari alla rappresentazione in forma digitale di un’informazione

DESCRIZIONE:

La compressione dati viene utilizzata sia per ridurre le dimensioni di un file, e quindi lo spazio necessario per la sua memorizzazione, sia per ridurre l’occupazione di banda necessaria in una generica trasmissione dati digitale come ad esempio una trasmissione televisiva digitale. Nelle trasmissioni digitali tale compressione dell’informazione è operata all’interno della cosiddetta codifica di sorgente in modo da eliminare la ridondanza e ottenere un’alta efficienza del codice di sorgente.

Le varie tecniche di compressione organizzano in modo più efficiente i dati, spesso perdendo una parte dell’informazione originale, al fine di ottenere una rappresentazione dell’informazione più compatta quindi comportante minori risorse per la sua memorizzazione e trasmissione. Come controparte la compressione dati necessita però di potenza di calcolo per le operazioni di compressione e decompressione, spesso anche elevata se tali operazioni devono essere eseguite in tempo reale.

 

TIPOLOGIE DI COMPRESSIONE DEI DATI:

Le tecniche di compressione dati si dividono in due grandi categorie:

  • compressione dati lossy: comprime i dati attraverso un processo con perdita d’informazione che sfrutta le ridondanze nell’utilizzo dei dati;
  • compressione dati lossless: comprime i dati attraverso un processo senza perdita d’informazione che sfrutta le ridondanze nella codifica del dato.

Tipicamente la scelta sul tipo di compressione da operare dipende dalla particolare applicazione o destinazione d’uso: file e programmi non tollerano alcuna perdita di informazione, come invece possono le immagini relative a foto o video.

Le tecniche senza perdita (lossless) consentono di preservare l’informazione originale in ogni sua parte. È l’unica via possibile quando si devono comprimere file di testo, programmi, documenti, database, schemi elettrici ecc. Un esempio è il formato ZIP, il quale consente di archiviare o trasmettere uno o più file risparmiando sulle risorse necessarie (spazio su disco o tempo di trasmissione). Al momento in cui vengono recuperati i file dallo ZIP (decompressione) questi risultano indistinguibili dagli originali.

Un altro esempio di caso in cui viene usata la compressione senza perdita è quello delle immagini non fotografiche, come gli schemi, i disegni o le icone. Per questo scopo esistono formati come il GIF o il più recente PNG. L’immagine compressa con uno di questi formati mantiene esattamente l’aspetto originale fino al dettaglio più insignificante.

D’altro canto, le tecniche con perdita di informazione (lossy) permettono anche delle compressioni molto spinte, quindi un grande risparmio di risorse, a discapito però della qualità dell’immagine o dell’audio che si è voluto comprimere. Generalmente queste tecniche si usano per comprimere i file multimediali. Pur mantenendo minima la perdita di qualità, il risparmio rispetto ad una compressione lossless sulla stessa informazione è sempre decisamente apprezzabile.

Le informazioni multimediali come audio o video, in origine sono infatti troppo grandi per essere agevolmente trasmesse o memorizzate, quindi si preferisce avere una piccola riduzione della qualità, ma nel contempo file molto più leggeri. Alcuni esempi sono: la compressione di immagini in formato JPEG, largamente usata in fotografia digitale e sul Web, la compressione video in formato XviD oppure la compressione audio in formato MP3

Codifica di immagini

Lascia un commento

Un’immagine è un insieme continuo di informazioni. A differenza delle cifre e dei caratteri alfanumerici, per le immagini non esiste un’unità minima di riferimento.

Il problema,quindi, è rendere digitale una informazione prettamente analogica.

Esistono numerose tecniche:

n una prevede la scomposizione dell’immagine in una griglia di tanti elementi (punti) che sono l’unità minima di memorizzazione;

 

n La seconda strada prevede la presenza di strutture elementari di natura più complessa, quali linee, circonferenze, archi, ecc.

ANALIZZIAMO

Consideriamo un’immagine in bianco e nero e la suddividiamo mediante una griglia formata da righe orizzontali e verticali a distanza costante.

Ogni quadratino derivante da tale suddivisione prende il nome di pixel (picture

element) e può essere codificato in binario secondo la seguente convenzione:

 

n il simbolo0viene utilizzato per la codifica di

un pixel corrispondente ad un quadratino bianco (in cui il bianco è predominante)

 

n il simbolo 1viene utilizzato per la codifica di

un pixel corrispondente ad un quadratino nero (in cui il nero è predominante)

 

Poiché una sequenza di bit è lineare, si deve definire una convenzione per ordinare i pixel della griglia: li ordiniamo dal basso verso l’alto e da sinistra verso destra. Tanto più fitta è la griglia, tanto migliore è la risoluzione dell’immagine. Quindi: le immagini sono rappresentate con un certo livello di approssimazione, o meglio, di risoluzione, ossia il numero di pixel usati per riprodurre l’immagine.

Risoluzioni tipiche:

n640 x 480 pixel; 800 x 600 pixel

n1024 x 768 pixel; 1280 x 1024 pixel.

 

Le immagini in bianco e nero hanno delle sfumature, o livelli di intensità di grigio.

oPer codificare immagini con sfumature:

si fissa un insieme di livelli (toni) di grigio, cui si assegna convenzionalmente una rappresentazione binaria. Per esempio con 4 bit si possono rappresentare 24=16 livelli di grigio.

Nello stesso modo possono essere codificate le immagini a colori:

 

o Nella codifica RGB si utilizzano tre colori: rosso (Red), verde (Green) e blu (Blue).

o Ad ogni colore si associa un certo numero

di sfumature codificate su N bit (2N possibili sfumature).

 

 

Bitmap

o La rappresentazione di un’immagine mediante la codifica a pixel viene chiamata bitmap. Il numero di byte richiesti per memorizzare un bitmap dipende dalla risoluzione e dal numero di colori.

I formati bitmap più conosciuti sono:

n BITMAP (.bmp)

n GIF (.gif)

n JPEG (.jpg)

n TIFF (.tiff)

 

o In tali formati si utilizzano metodi di compressione per ridurre lo spazio di memorizzazione.

I più importanti sono:

JPG che è il formato più usato per le immagini di tipo fotografico nel Web; consente di scegliere un rapporto di compressione variabile.

GIF invece, è il formato più usato per le immagini di piccole dimensioni e limitato numero di colori.

È ottimo per immagini grafiche(es. con testo) e per la trasmissione di immagini in rete.

 

Codifica vettoriale delle immagini

oSi utilizza quando le immagini da memorizzare hanno caratteristiche geometriche ben definite. Il disegno da memorizzare può essere facilmente scomposto in elementi base come una linea o un arco di circonferenza ecc.

oLa memorizzazione dell’intera immagine avviene tramite la codifica di ogni singola parte.

La codifica vettoriale delle immagini richiede poco spazio; infatti per definire un segmento basteranno le coordinate dei due estremi (Linea dal punto <10;12> a <20; 30>).

oIl formato più diffuso è il PostScript (ps, eps), usato anche per la stampa dei testi. Poi ci sono altri formati: wmf, cdr (CorelDraw).

 

Older Entries