Tuesday, May 31, 2022

Lettera a mio padre "Sono arrivato a capire, nel tempo – quando le cose vecchie diventano d'oro e quelle nuove ci coinvolgono così da vicino che a volte quasi non ci fanno respirare – il significato della parola e il ruolo di "padre". Per me, nei miei anni giovanili, mio padre era l'uomo silenzioso, sobrio, coraggioso e bonario che, mentre svolgeva la sua vita quotidiana nel suo ruolo all'interno della piccola azienda di famiglia, era infatti la mia guida fidata e il mio costante punto di riferimento, anche se non me ne rendevo ancora conto. Non lo sapevo, ma in quegli anni durante i quali forgiavo il mio futuro, ogni fermo concetto di azione verso la famiglia, verso il Creato e verso le persone si stava lentamente plasmando e da quest'uomo traeva le sue motivazioni più profonde". Estratto dall'ultimo pensiero scritto da Solari Danilo
: "Lettera a mio padre".

Monday, May 30, 2022

Da qualche settimana si è creato un vasto movimento di sostegno ai circa 100 docenti che in tutta Italia continuano a svolgere la funzione di “presidi incaricati” o, come comunemente definiti, di “precari della dirigenza”. L’istituto dell’incarico di presidenza sembrava “defunto” con le ultime tornate concorsuali a posti di dirigente scolastico, nell’ottica del perseguimento della via maestra, indicata all’art. 97 della Costituzione, di “super concorsi” salvifici, rapidi e capaci, secondo l’idea del legislatore, di risolvere i gravosi problemi che affliggono la dirigenza scolastica. E’ necessario allora ripercorrere brevemente, senza tediare più di tanto, la storia normativa recente dell’istituto di cui sopra. Salvatore M. – Da qualche settimana si è creato un vasto movimento di sostegno ai circa 100 docenti che in tutta Italia continuano a svolgere la funzione di “presidi incaricati” o, come comunemente definiti, di “precari della dirigenza”. L’istituto dell’incarico di presidenza sembrava “defunto” con le ultime tornate concorsuali a posti di dirigente scolastico, nell’ottica del perseguimento della via maestra, indicata all’art. 97 della Costituzione, di “super concorsi” salvifici, rapidi e capaci, secondo l’idea del legislatore, di risolvere i gravosi problemi che affliggono la dirigenza scolastica. E’ necessario allora ripercorrere brevemente, senza tediare più di tanto, la storia normativa recente dell’istituto di cui sopra. Il D.Lgs. n. 59/1998, nel ribadire la linea secondo la quale fosse negata la possibilità in via ordinaria di conferire posti dirigenziali a chi non avesse conseguito la relativa qualifica mediante concorso, stabilì pure che essa dovesse decorrere dallo svolgimento della prima tornata di concorsi dirigenziali e dalla redazione delle conseguenti graduatorie. Fino a quel momento l’art. 28 bis, comma 3, di quest’ultimo decreto stabilì che non solo fosse possibile nella scuola conferire incarichi di presidenza, ma che anzi essi sarebbero stati titolo valutabile proprio ai fini concorsuali. L’art. 28 bis è poi divenuto l’art. 29 del D.Lgs. n. 165/2001, ed è tuttora vigente. Il legislatore, dunque, nel prevedere l’anzidetta eccezione all’impianto giuridico complessivo della dirigenza, ha tenuto presente le particolari necessità delle istituzioni scolastiche, che esigono, in ogni caso, la continua presenza di un responsabile. L’incarico di presidenza è regolato contrattualmente dall’art. 69 del CCNL/1995, espressamente richiamato nell’art. 146 del CCNL/2007. Tuttavia, la legge 43 del 31/03/2005, art. 1/sexies ha previsto che, a decorrere dall’anno scolastico 2006/2007, non siano più disposti nuovi incarichi di presidenza, fatta salva la conferma degli incarichi già assegnati. I posti vacanti di dirigente scolastico sono conferiti con incarico di reggenza. L’impianto normativo vigente ha tuttavia consentito a chi ne avesse titolo di continuare a svolgere la funzione, anche in mancanza della “idoneità” concorsuale, da conseguire negli ultimi concorsi banditi, di cui uno in corso, che, come è noto, sono infarciti di errori, sconvolti dalle inchieste giudiziarie e dagli annullamenti disposti dalla Magistratura Amministrativa. Nel caos determinato da concorsi mal gestiti, dichiarati illegittimi, o dall’uso indiscriminato dell’istituto della reggenza, che comporta l’assegnazione senza scrupoli ai dirigenti scolastici(pochi) di una pluralità devastante di istituti scolastici, i “presidi incaricati” rimasti hanno garantito la stabilità, l’efficienza, la continuità di direzione in molte scuole, talvolta nelle sedi più disagiate. Esistono dunque ancora dei “precari della dirigenza”, dei presidi a termine illegittimamente utilizzati dal legislatore per coprire le falle di un sistema ormai in cancrena. Questi soggetti hanno dimostrato competenze sul campo e continuano a svolgere degnamente, nel rispetto di una professione ormai bistrattata, le funzioni ad esse per legge assegnate. Recentemente sono state presentate due interrogazioni parlamentari, di cui una alla Camera dei Deputati(on. Di Giuseppe, Atto n. 4-13296) e una al Senato della Repubblica(sen. Salvo Flores, Atto n. 4-05950), nelle quali si fa riferimento alla problematica dei presidi incaricati e si pone l’attenzione sulla illegittimità della reiterazione dei contratti a tempo determinato di tali soggetti, che si perpetua, per alcuni, addirittura da quasi un decennio. Scrive l’on. Di Giuseppe: “…alla luce del nuovo orientamento giurisprudenziale, potrebbero partire dei ricorsi per la trasformazione del contratto e il risarcimento danni alla pubblica amministrazione, che risulterebbe soccombente in quanto i presidi incaricati svolgono a tempo determinato da 10 anni la funzione, senza che sia mai stata determinata un’esigenza eccezionale, così come invece vorrebbe l’articolo 35 del decreto legislativo n. 165 del 2001…” e, ancora: “i contratti a tempo determinato sono stati posti in essere secondo gli interroganti in violazione della normativa che regola la materia e, in particolare, del decreto legislativo 6 settembre 2001 n. 368 con il quale l’ordinamento italiano ha inteso dare attuazione alla direttiva 1999/70/Ce relativa all’accordo quadro sul lavoro a tempo determinato concluso dall’UNICE, dal CEEP e dal CES (che si applica alla pubblica amministrazione in forza della clausola 2 del medesimo accordo quadro)”. Il sen. Fleres punta inoltre l’attenzione sulla capacità professionale degli incaricati, sottolineando che: “i suddetti presidi incaricati, svolgendo tali funzioni da diversi anni, hanno acquisito capacità, competenze ed esperienze messe a disposizione di un’amministrazione che li ha, peraltro, incaricati, formati ed aggiornati con spese a carico dello Stato”. Bisogna però specificare che nel pubblico impiego, in merito alla illegittima reiterazione di contratti a termine, la norma di riferimento è il comma 5, art. 35 del d.lgs. 165/2001: “5.In ogni caso, la violazione di disposizioni imperative riguardanti l’assunzione o l’impiego di lavoratori, da parte delle pubbliche amministrazioni, non può comportare la costituzione di rapporti di lavoro a tempo indeterminato con le medesime pubbliche amministrazioni, ferma restando ogni responsabilità e sanzione. Il lavoratore interessato ha diritto al risarcimento del danno derivante dalla prestazione di lavoro in violazione di disposizioni imperative.” Dunque, sebbene, forse, non sia ipotizzabile una mera conversione del contratto, in rispetto anche al disposto dell’art. 97 della Carta Costituzionale, è altamente probabile che la P.A. sia colpita da più di 100 ricorsi per il risarcimento danno. La giurisprudenza recente è molto propensa, soprattutto per quanto riguarda la reiterazione dei contratti a termine dei docenti, ad accordare risarcimenti danno faraonici, parametrati sulla retribuzione globale di fatto, in media sulle 15 mensilità lorde. Fatto un breve calcolo ciò potrebbe costare al Miur circa 40000 euro netti a preside incaricato, per un totale di 4000000 euro per tutti questi “precari della dirigenza” rimasti. Naturalmente tutto a carico della comunità che dopo le recenti manovre finanziarie è vessata da tassazioni già a livelli esponenziali! Alcune sigle sindacali, su tutte la Dirpresidi, ma anche l’Uglscuola e, ultima, l’Unicobas, stanno avviando procedure di vertenza a tutela di questa categoria di lavoratori. Che fine hanno fatto i Confederali( Cgil, Cisl e Uil)? Il loro silenzio assordante sulla vicenda sembra un’acquiescenza non molto celata alla volontà di continuare ad ignorare questa forma di precariato. Quanto conviene ancora allo Stato disprezzare, umiliare, gettare e riusare i presidi incaricati? E quanto conviene economicamente, per una volontà incomprensibile, rischiare risarcimenti milionari a carico dei contribuenti, al solo scopo di evitare l’assunzione di 100 docenti che hanno dimostrato in un decennio di essere preparati, formati sul campo e disposti, a capo chino, a servire la Pubblica Amministrazione? Nell’era della meritocrazia valutata in base a quiz, test di puro nozionismo, il legislatore farebbe bene, ogni tanto, a compiere gesti legittimi di riparazione a errori del passato, in favore del merito dimostrato giorno dopo giorno sul campo.

Tosi

GPON (Gigabit-capable Passive Optical Network) è una tecnologia comunemente utilizzata per realizzare reti in modalità FTTH (Fiber To The Home), secondo cui la connessione a Internet di una abitazione avviene portando la fibra ottica fino a dentro casa. GPON fa parte di un insieme di standard PON, i quali si differenziano in base alla velocità massima complessiva raggiungibile all’interno di ciascun albero ottico, una struttura spesso condivisa anche con 64 utenze (il significato di albero ottico è spiegato in dettaglio sotto). Nel caso di GPON, la velocità massima è di circa 2,5 Gbps in download e 1,25 Gbps in upload, condivisa con un numero prestabilito di utenze, che può arrivare fino a 128.1 Ciascuna delle linee collegate avrà poi una velocità massima nominale fissata dall’operatore, ad esempio 1 Gbps in download. GPON: 2,5 Gigabit in download e 1,25 Gigabit in upload. XG-PON: 10 Gigabit in download e 2,5 Gigabit in upload. XGS-PON: 10 Gigabit in download e 10 Gigabit in upload. NG-PON2: 40 Gigabit in download e 2,5 Gigabit in upload Differenze tra gli standard PON. Fonte: Open Fiber. La caratteristica fondamentale che rende GPON la soluzione più frequentemente adottata per la FTTH è il fatto che la rete ottica è passiva, e cioè che tra i due estremi della rete (centrale e abitazioni) non sono presenti punti che richiedano alimentazione elettrica. Questo è un importante vantaggio della tecnologia, perché riduce i costi e la possibilità di guasti. Se in una città di grandi dimensioni coperta in FTTC sono presenti centinaia di apparati attivi (ONU) sparsi sulle strade, in FTTH-GPON gli unici elementi che l’operatore si deve preoccupare di alimentare sono le centrali (o POP). GPON è la tecnologia attualmente utilizzata in Italia per realizzare le nuove reti FTTH. Gli elementi di una rete ottica passiva GPON in Italia Open Fiber Flash Fiber FiberCop UNA PICCOLA INTERRUZIONE. L'ARTICOLO PROSEGUE SOTTO ↓ Gli elementi di una rete ottica passiva Una rete ottica passiva (come la GPON) è di tipo punto-multipunto. Il “punto” è un apparato dell’operatore (OLT, Optical Line Terminal), che spesso si trova nella centrale locale, mentre i “multipunto” sono dei dispositivi installati all’interno delle abitazioni dei clienti (ONT oppure ONU, rispettivamente Optical Network Terminal e Optical Network Unit). Nel caso di GPON, un singolo OLT in centrale è in grado di collegare per ciascun cavo in fibra ottica in uscita un numero di utenze che può arrivare al massimo a 128. Questo numero determina il fattore di splitting (o fattore di diramazione, in italiano). Un OLT può avere anche centinaia di porte2, e ciascuna di queste realizza un albero ottico alla cui estremità è collegato un numero di utenze pari al fattore di splitting. La velocità di 2,5 / 1,25 Gbps prevista da GPON è condivisa tra tutte le utenze che fanno capo allo stesso albero. Per questo motivo, nella pratica il fattore di splitting non è quasi mai 128 ma 64 o inferiore.2 Vedi la sezione GPON in Italia più in basso per i dettagli sui fattori di splitting usati in Italia. Nelle reti PON lo splitting della fibra ottica avviene in modo passivo, e cioè a livello fisico senza bisogno di apparati alimentati. I dispositivi che si occupano di effettuare lo splitting si chiamano splitter ottici (o diramatori ottici, in italiano). Schema di una rete GPON con fattore di splitting 1:16. Ogni fibra ottica in uscita dall’OLT realizza un albero. Lo splitter divide la fibra ottica in 16 fibre, ciascuna delle quali connette un ONT. In una rete GPON ci possono essere diversi livelli di splitting, ma spesso sono due. Questi punti si possono trovare in armadi posizionati sulla strada oppure interrati o sospesi. Per fare un esempio, Open Fiber in Italia applica due livelli di splitting, il primo presso un PFP (Punto di Flessibilità Primario) e il secondo presso un PFS (Punto di Flessibilità Secondario).3 Come funziona uno splitter ottico? Uno splitter ottico riceve in ingresso (lato OLT) una singola fibra ottica e produce in uscita N segnali su N fibre ottiche (fattore di splitting 1:N). In direzione downstream (OLT -> ONT) lo splitter “copia” la luce in ingresso sulle fibre ottiche in uscita, dividendo però così la potenza della luce per N. Per questo motivo una rete GPON ha un limite massimo di estensione, che è di circa 20 km (tra OLT e ONT più lontano). Da questo comportamento segue anche il fatto che ciascun ONT riceve anche il traffico destinato agli altri ONT. Si rende quindi necessario l’uso di tecniche di crittografia per proteggere le informazioni, che vengono scartate a livello di ONT se destinate a un altro ONT. In direzione upstream (ONT -> OLT) lo splitter si occupa di sommare i contributi di luce portati dalle N fibre ottiche. Considerato che più ONT possono trasmettere in contemporanea, gli OLT prevedono dei meccanismi di sincronizzazione per fare in modo che la trasmissione sia coordinata e non sovrapposta. L’elemento GPON di interesse principale per le utenze finali è però il ROE (Ripartitore Ottico di Edificio), a volte chiamato PTE (Punto di Terminazione di Edificio). Il ROE/PTE viene solitamente installato a pochi metri dalle abitazioni: molto spesso si trova nel locale contatori dell’edificio, ma può anche essere montato su una parete esterna, oppure interrato o inserito in una chiostrina. Il ROE/PTE può contenere uno splitter oppure svolgere solo il ruolo di distributore, con lo scopo di dare flessibilità alla rete. In questo secondo caso, nel ROE/PTE entrerebbe un numero prefissato di fibre ottiche (es. 16, provenienti da uno splitter ottico a monte), e ne uscirebbero altrettante, che andrebbero direttamente alle unità immobiliari (UI) dei clienti finali (tratta verticale). Schema della rete FTTH GPON di Flash Fiber. I punti di splitting sono due, rispettivamente i CNO (Centro Nodale Ottico) e i ROE. Il fattore di splitting complessivo è 1:64, mentre per ciascuno splitter è 1:8. Interno di un ROE Flash Fiber che mostra i cavi delle fibre ottiche Interno di un ROE Flash Fiber con 16 fibre ottiche. Grazie a “evilways” per la foto Infine, all’interno delle abitazioni sono presenti una borchia ottica e un ONT. Un ONT è un dispositivo alimentato, concettualmente analogo ad un modem DSL, che riceve e decifra (e viceversa) il segnale ottico, e lo converte in un segnale elettrico (tramite un’uscita Ethernet), adatto per il collegamento a un router. Non sempre l’ONT è un dispositivo a sé stante: può anche essere incorporato all’interno di un router, oppure essere fornito come modulo SFP, una cartuccia metallica che va inserita in un router o in un convertitore. Cavo di fibra ottica per FTTH con connettore SC/APC UNA PICCOLA INTERRUZIONE. L'ARTICOLO PROSEGUE SOTTO ↓ GPON in Italia In Italia le infrastrutture FTTH a livello nazionale sono quelle di Open Fiber, Flash Fiber (TIM+Fastweb) e TIM/FiberCop, tutte realizzate con tecnologia GPON. Open Fiber Nel caso di Open Fiber, le infrastrutture hanno caratteristiche diverse a seconda che siano state realizzate con fondi privati o pubblici. Nel primo caso si tratta delle circa 270 grandi città che Open Fiber ha intenzione di cablare entro il 2023, mentre nel secondo si tratta delle aree bianche cablate tramite il piano BUL. Nelle aree a investimento privato l’infrastruttura prevede dei POP (Point Of Presence) posizionati sul territorio, nei quali sono presenti gli OLT. Il fattore di splitting utilizzato è 1:64, e lo splitting avviene in due diversi livelli, tramite i PFP (Punto di Flessibilità Primario) e i PFS (Punto di Flessibilità Secondario).3 Questi punti possono contenere fino a 20 splitter e non devono necessariamente trovarsi in prossimità degli armadi di TIM. Infine, nei pressi delle abitazioni Open Fiber installa dei PTE, chiamati anche PTA (Punto di Terminazione Arretrato) se sono interrati all’interno di appositi pozzetti. Infrastruttura di rete Open Fiber (cluster A). Fonte: Open Fiber Scatola di un PTE con l'etichetta Open Fiber PTE Open Fiber. Grazie a Edoardo M. per la foto La rete Metroweb Quando Open Fiber è nata, nel 2016, ha incorporato la rete Metroweb realizzata nel decennio precedente a Milano, Torino, Bologna e Genova. Anche la rete Metroweb prevede due livelli di splitting, ma uno dei due avviene direttamente all’edificio (nei ROE), come nel caso di Flash Fiber. Nelle aree a investimento pubblico (cluster C e D), la differenza fondamentale è che il fattore di splitting è 1:16, anziché 1:64. Ciò significa che ad ogni albero possono essere collegati al massimo 16 ONT, che condivideranno la banda 2,5 / 1,25 Gbps prevista da GPON. La scelta è dovuta al fatto che i bandi pubblici del piano BUL richiedono di garantire almeno 100 Mbps in download e 50 in upload per utenza, anche in caso di collegamenti contemporanei. Come conseguenza, il livello di splitting è soltanto uno ed è effettuato nel CNO (Centro Nodale Ottico), collegato a un PCN (Punto di Consegna Neutro), che è l’equivalente del POP ma è quasi sempre condiviso tra più comuni.4 La scelta di un fattore di splitting inferiore consente inoltre di avere delle tratte OLT-ONT più lunghe, in considerazione del fatto che ogni splitting ripartisce la potenza del segnale luminoso tra i rami dell’albero. Nelle aree a investimento pubblico viene inoltre fatto ampio uso dei PTA, cioè ROE interrati. Vedi anche Come riconoscere la rete pubblica BUL. Infrastruttura di rete Open Fiber nei cluster C e D (aree bianche). Fonte: Open Fiber Infrastruttura di rete Open Fiber nei cluster C e D. Esempio con comuni multipli connessi allo stesso PCN. Fonte: Open Fiber Gli operatori che vogliono utilizzare la rete di accesso di Open Fiber possono scegliere principalmente tre modalità5: l’operatore può installare i propri OLT nel POP e fornire anche gli ONT ai propri clienti. In questo caso Open Fiber offre solo la “fibra spenta” in uscita dal POP verso gli ONT. Per confronto, è l’equivalente dell'ULL di TIM; Open Fiber offre sia OLT che ONT, e si tratta in questo caso del servizio Open Stream. La consegna del traffico all’operatore può avvenire tramite un apposito kit Ethernet presente nel POP, oppure in un qualsiasi altro POP di Open Fiber o dell’operatore, anche geograficamente distante. Nel primo caso è l’equivalente del VULA di TIM, nel secondo caso del Bitstream NGA; infine, Open Fiber può offrire anche l’interconnessione con la rete Internet. Questo servizio si chiama Open Internet e permette a un operatore di offrire connessioni a Internet senza nessun investimento in infrastrutture di rete. L’operatore (che è in un certo senso un operatore “virtuale”) si affida quindi completamente a Open Fiber, che fornisce anche il router ai clienti. È simile al servizio Easy IP NGA di TIM. Vedi anche Come funziona la rete Internet e Cos’è e cosa fa Open Fiber. UNA PICCOLA INTERRUZIONE. L'ARTICOLO PROSEGUE SOTTO ↓ Flash Fiber L’infrastruttura Flash Fiber è particolare, perché comprende in realtà due infrastrutture parzialmente distinte, quella di TIM e quella di Fastweb. In questo caso, gli OLT di TIM e Fastweb si trovano nelle centrali TIM, e il fattore di splitting è 1:64. I livelli di splitting sono due e avvengono rispettivamente in un CNO (Centro Nodale Ottico), posizionato indicativamente in prossimità degli armadi ripartilinea, e nei ROE. Per ciascuno dei due livelli di splitting si applica generalmente un fattore di 1:8 (8 x 8 = 64). Interno di una chiostrina TIM su strada, contenente il CNO CNO Flash Fiber inserito in un box-chiostrina. Grazie a Luca Z. per la foto Nell’infrastruttura Flash Fiber i ROE sono condivisi tra TIM e Fastweb, ma al loro interno vengono effettuati separatamente gli splitting per TIM e per Fastweb. Solitamente quindi un ROE Flash Fiber ha una capacità di 8 linee per TIM e 8 linee per Fastweb. Scatola di un ROE con le etichette Flash Fiber, TIM e Fastweb ROE Flash Fiber. Grazie a Edoardo C. per la foto Un’altra differenza importante rispetto a Open Fiber è che gli OLT Flash Fiber sono sempre o di TIM o di Fastweb. Ciò significa che se un operatore terzo vuole accedere alla rete Flash Fiber non può installare i propri OLT e ONT ma deve condividere la rete con TIM o Fastweb, ad esempio con la modalità VULA di TIM o l’analoga di Fastweb. Inoltre, mentre Open Fiber in Open Stream consente ad ogni operatore di collegarsi ad una porta dedicata da 10 Gbps per la consegna del traffico, TIM in VULA prevede solo 10 Gbps totali da condividere tra tutti gli operatori presenti in centrale.6 Vedi anche Cos’è e cosa fa Flash Fiber e Cosa significano VULA, SLU e NGA.

Saturday, May 28, 2022

Monomodale

Azienda

Multimodale/Monomodale

fibra

fibra multimodale

Il vaiolo fu una malattia con segni clinici talmente evidenti e caratteristici e causò epidemie talmente drammatiche e disastrose da diventare a lungo il soggetto di miti e superstizioni e i medici e gli storici scrissero molto su di esso. Le origini del vaiolo sono sconosciute e i più antichi rapporti attorno ad esso sono inattendibili. La più antica prova si trova nelle mummie egizie di persone morte circa 3000 anni fa. E’ ragionevole pensare che il vaiolo venisse trasmesso dall’Egitto per via terrestre o marittima fino all’India, dove rimase come una malattia umana a carattere endemico per circa 2000 anni e forse ancor più. Nel I secolo d.C. il vaiolo entrò in Cina da Sud-Ovest e diventò stabile nella popolazione. Nel VI sec. d.C. il vaiolo passò dalla Cina al Giappone. In Occidente il vaiolo fece periodiche comparse in Europa senza diventarvi stabile, fino al momento in cui la popolazione non aumentò di numero e gli spostamenti delle persone non divennero più intensi durante il periodo delle Crociate. Come la popolazione crebbe in India, in Cina e in Europa, il vaiolo divenne stabile nelle città e nelle aree maggiormente popolate come una malattia endemica che colpiva soprattutto i bambini con periodiche epidemie che provocavano la morte di circa il 30% dei soggetti colpiti. La sua penetrazione si accrebbe progressivamente e attorno al XVI secolo il vaiolo fu un’importante causa di morbilità e mortalità in Europa come nel Sud-Est Asiatico, India e Cina. La comparsa della malattia in Europa fu di speciale importanza perché l’Europa costituì il focolaio da cui il vaiolo si estese alle altre parti del mondo, come una coda delle successive ondate di esploratori e colonizzatori europei. Tanto per citare alcuni dati significativi della mortalità provocata dal vaiolo nel solo continente europeo nel corso del XVIII secolo, prima che le misure di profilassi fossero attuate con il metodo della variolazione, pur imperfetto, nel 1753, a Parigi, morirono di vaiolo 20.000 persone, a Napoli nel 1768 in poche settimane morirono 60.000 persone, a Berlino, nel 1766, 1077 persone e ad Amsterdam, nel 1784, 2000 persone. Nel 1707 una nave infetta di vaiolo, approdata in Islanda, vi provocò in breve 20.000 morti. La Groenlandia nel 1733 perse i tre quarti della popolazione a causa del vaiolo. Nel 1507 il vaiolo era stato introdotto nell’isola caraibica di Hispaniola (Haiti) e nel 1520 nel continente americano in territorio messicano. Esso colpì gli indigeni con grande durezza e fu un importante fattore nella conquista degli Aztechi e degli Incas da parte degli Spagnoli. Lo stesso avvenne in Brasile nel 1560. La colonizzazione della costa orientale del Nord America avvenne circa un secolo più tardi e fu anch’essa accompagnata da devastanti esplosioni di vaiolo tra gli Amerindi e successivamente tra i coloni nativi. Il vaiolo fu introdotto tardi nel Centro Africa, probabilmente durante i primi anni del XIX secolo, mentre nell’Africa Settentrionale lo era da tempo immemorabile. Dalla metà del XVIII secolo il vaiolo fu la maggiore malattia endemica del mondo, se si esclude l’Australia e diverse piccole isole. Esso fu introdotto in Australia nel 1789 e di nuovo nel 1829 e fece strage tra gli aborigeni, ma rapidamente si spense in ambedue le occasioni. Il vaiolo imperversò in Europa nel XIX secolo con numerose epidemie (1824-1829; 1837-1840;1870-1874) e vi fu eradicato solo nel 1953. Nel Nord America gli ultimi casi di vaiolo si videro negli anni Quaranta. Nel 1969 si contavano ancora 5000 casi di vaiolo in Brasile, ma nel 1971 il morbo fu considerato scomparso in tutta l’America Latina. Nel 1974 si ebbero 170.000 casi in India, ma l’ultimo caso si ebbe nel 1975. Tuttavia nel 1979, dopo l’ultimo caso segnalato in Somalia nel 1977, il vaiolo poté essere considerato scomparso dal pianeta e questo in virtù di una universale campagna di vaccinazione dell’OMS. Gli storici Secondo Huard e Wong la descrizione principe del vaiolo la si trova nel Pao-p’ou-tseu di Ko Hong (326 circa d.C.) con il nome di te-ou-tchen. Una successiva menzione viene fatta da Souen Sseu-mo (652 d.C circa) nel Ts’ien-kin fang. Wang-Houai-yin nel 992 d.C differenziò il vaiolo dal morbillo. Wen Jen-kouei (1323 circa) dedicò una monografia al vaiolo, attribuendone l’eziologia a fattori umorali o meteorologici (venti freddi). Il vaiolo era conosciuto nell’antica India e ne scrissero autori come Susruta in un periodo imprecisato a.C. e Vagbata attorno al VII secolo d.C. e in Giappone Ishinho nel 982. Nel mondo occidentale il vaiolo fu sconosciuto come malattia a sé stante nell’Antico Egitto, anche se il corpo mummificato di Ramsete V (morto nel 1157 a.C.) ne porta evidenti segni. A questo proposito è necessario fare una breve parentesi per cercare di dare una spiegazione a questo fatto. Uno dei primi centri della civiltà umana fu nella valle del Nilo, esteso alla Palestina e alle pianure alluvionali del Tigri e dell’Eufrate. Scambi commerciali e guerre di conquista fecero di questa regione una singolare unità ecologica per quanto riguarda la trasmissione di molte malattie dell’uomo. Comunque, a prescindere dai racconti di una “piaga” che gli Ittiti avevano riferito di avere ricevuto dagli Egizi nel XIV secolo a.C.(1346 a.C.), che, da quanto riferito, potrebbe essere stato vaiolo, le testimonianze scritte della civiltà egizia, che includono il Talmud e la Bibbia (Antico Testamento), non fanno alcun cenno a malattie con sintomi tali da far pensare al vaiolo. La più numerosa e concentrata popolazione della regione si trovava nella valle del Nilo, dove nel III millennio a.C. poteva esserci circa un milione di individui e forse tre milioni nel I millennio a.C. Come attestano le scritture della Bibbia e altri scritti, l’Egitto fu periodicamente flagellato da devastanti epidemie, ma nessuna di queste fu descritta in modo tale da far pensare ad una epidemia di vaiolo. Tuttavia, la pratica egizia della mummificazione consentì la conservazione della cute, dei muscoli e delle ossa di un gran numero di personaggi di alto rango. Questo permise ai paleopatologi di formulare diagnosi sulle cause di morte di diverse persone mummificate. La letteratura scientifica cita tre mummie la cui pelle era coperta da lesioni simili a quelle del vaiolo. Dai primi due casi, scoperti nel 1911 e nel 1921, per l’insufficienza dei mezzi diagnostici dell’epoca, derivarono diagnosi di probabile infezione vaiolosa, mentre per il terzo caso, studiato nel 1983 da Hopkins, è stato possibile formulare una diagnosi di certezza. Si tratta della mummia di Ramses V che morì ancor giovane nel 1157 a.C. ed è una delle mummie meglio conservate del Museo del Cairo. Ci si aspetterebbe che una malattia epidemica come il vaiolo, che uccideva faraoni e nobili come la gente comune,dovesse essere stata descritta nella vasta letteratura di argomento medico prodotta dagli Egizi, o dai loro vicini dell' Asia Minore. Tuttavia, una simile descrizione non esiste, sebbene nel Papiro Ebers si trovi un passo dove viene descritta una malattia che colpisce la pelle che Regoly-Mérei (1966) suggerisce possa essersi trattato di vaiolo. Fatta questa breve ma necessaria parentesi, resta da considerare che, al di là delle notizie scritte di parte egizia relative al vaiolo, oggi la paleopatologia ha dimostrato, attraverso l’analisi della mummia di Ramsete V, che già oltre tremila anni fa l’Egitto era colpito dal vaiolo e chissà da quanto tempo prima. La malattia non è segnalata nel Corpus ippocraticum, né compare nella letteratura greco-romana. Una prima fonte letteraria occidentale sul vaiolo l’abbiamo dall’Alessandrino Aronne (Ahrun/622 d.C./), che ne parla nel suo trattato di medicina. Tuttavia la prima autentica descrizione del vaiolo, insieme a quella del morbillo che da quello viene differenziato, fu fatta dal medico arabo Al Razi (Rhazes), (Bagdad, X secolo). Egli concordava con gli autori cinesi sull’origine umorale delle due affezioni e suggeriva come terapia la sudorazione. Epidemie di vaiolo probabilmente imperversarono nel Medio-Evo, ma non ne abbiamo precisa notizia, perché si faceva molta confusione tra le diverse malattie esantematiche dell’infanzia, finché nel 1553 l’Italiano Ingrassia differenziò la scarlattina e la varicella dalle altre malattie esantematiche infantili.Girolamo Fracastoro (1546), che notevole impulso diede alle teorie sull’epidemiologia delle malattie infettive, riconobbe la contagiosità del vaiolo, allineandosi per la terapia con il metodo della sudorazione suggerito da Rhazes. Oltre un secolo dopo, l’Ippocrate inglese, Sydenham (1685), descriveva nuovamente il vaiolo, che attribuiva ad una “infiammazione sanguigna”, distinguendola dal morbillo. Il suo particolare interesse nei riguardi del vaiolo era motivato dalle grandi epidemie di questa malattia che afflissero il territorio inglese nel 1667-1669 e nel 1674 e 1675. Egli, contrariamente a quanto suggeriva Rhazes, consigliava una terapia rinfrescante (aria fresca e bevande fredde) e l’uso dell’oppio(1). Malgrado i progressi compiuti a partire dall’inizio del XVIII secolo nel campo della profilassi della malattia, prima col metodo della variolazione, poi col metodo jenneriano della vaccinazione, l’esatta sua eziologia venne scoperta solo nella seconda metà del XIX secolo grazie a progressi della microscopia. Prima Keber (1868) poi Buist (1886-1887), esaminando al microscopio la linfa vaccinica vi distinsero alcuni corpuscoli corrispondenti ad ammassi di virus. Nel 1892 l’italiano Guarnieri descrisse nelle lesioni vaiolose osservate al microscopio particolari inclusioni, che da lui presero il nome, considerate come stadi del ciclo di protozoi parassiti, che egli chiamò Cytoryctes variolae e Cytoryctes vaccinae. Gli studi per identificare l’agente eziologico del vaiolo umano e vaccino proseguirono nella prima decade del XX secolo ad opera di Roux, Calmette e Guerin, Prowazek, Negri, Calkins. A partire dal 1910 la scoperta delle tecniche di colture tissutali permise di coltivare in vitro i virus, in modo particolare quello del vaiolo vaccino (Noguchi, 1915; Parker,1925; Carrel e Rivers, 1928) e nel 1928 Maitland e Maitland ottennero la coltura in un mezzo liquido. La successiva tecnica dell’ultracentrifugazione permetterà di valutare le dimensioni delle particelle virali vacciniche (Mac Callum e Oppenheimer, 1922; Elford, 1938). Il microscopio elettronico permetterà dal 1948 (Van Rooyen e Scott; Nagler e Rake) di visualizzare le particelle virali e ottenerne le prime microfotografie. Il lungo cammino dell’identificazione della causa del morbo si era concluso. (1)Tissot , il secolo successivo, avrebbe contestato l’uso dell’oppio consigliato dal Sydenham nella terapia del vaiolo, con queste parole:”L’oppio è adunque medicamento nocivo nella febbre vaiolosa secondaria, in quanto che ella è una febbre acuta infiammatoria, putrida, ed accresce tutti i sintomi, che producono pur anche la febbre”. La lunga storia della profilassi antivaiolosa I Cinesi furono i primi a mettere in pratica un metodo di prevenzione del vaiolo. Questo metodo fu menzionato per la prima volta nell’anno 1014 della nostra era da Wang Tan e consisteva nell’insufflare nelle narici polvere di croste vaiolose della fase terminale della malattia; una seconda tecnica, che sarà quella adottata dagli Europei nel XVIII secolo, era quella di inoculare sottocute la polvere delle croste vaiolose per mezzo di sottili aghi. In India i bramini praticavano l’inoculazione introducendo sotto la pelle sottili fili impregnati di materia vaiolosa, oppure frizionavano la pelle escoriata con tessuto impregnato di pus vaioloso. Il vaiolo fu l’unica malattia infettiva per cui si pensò ad una prevenzione attiva attraverso l’inoculazione, mentre per tutte le altre valse sempre il metodo della contumacia. In Europa la pratica dell’inoculazione (o variolizzazione) fu introdotta nei primi decenni del XVIII secolo. Notizie sia pur vaghe erano giunte alla Royal Society di Londra da diversi paesi e soprattutto dalla Cina attraverso l’Asia Minore. Da lungo tempo i popoli abitanti vicino al Mar Caspio, come i Circassi e i Georgiani, proteggevano la bellezza delle loro donne dalle deturpazioni provocate dal vaiolo mediante l’inoculazione ed era da questi paesi che i Turchi e i Persiani traevano le più belle schiave per i loro harem. La stessa cosa valeva per il Bengala, l’Indostan e tutti i regni circostanti, mentre in Africa tale pratica era molto seguita nel Senegal. I primi a caldeggiare la variolizzazione in Europa furono due medici greco-italiani, Pylarino(2) e Timoni(3), che esercitavano la medicina a Costantinopoli agli inizi del XVIII secolo. Essi furono colpiti dai successi che tale pratica permetteva di conseguire e raccolsero informazioni da quelle vecchie che la esercitavano per trasmetterla successivamente con relazioni ben dettagliate agli studiosi europei(4). Ma il frutto delle loro osservazioni sarebbe andato perduto se non fosse stato per l’interessamento di Lady Mary Wortley Montagu, moglie dell’ambasciatore inglese a Costantinopoli che introdusse la pratica per la prima volta in Europa e, nella fattispecie, in Inghilterra, dopo avere osservato tale pratica in Turchia e aver fatto inoculare un figlio. Essa nel 1722 cercò di persuadere il Collegio dei medici di Londra ad eseguire una prova che avesse un certo valore dimostrativo. Quello stesso anno il dottor Richard Mad, medico del re, inoculava sette condannati a morte del carcere di Newgate i quali sopravvissero e furono graziati. Ma la Montagu prese anche la personale iniziativa di far vaccinare di fronte alla corte inglese il suo secondo figlio, ispirando la fiducia della famiglia reale inglese che a sua volta si sottopose alla variolizzazione. Tutte le persone variolizzate, dopo una lieve forma di vaiolo, guarirono. Uno dei carcerati inglesi sottoposti all’esperimento fu esposto al contagio del vaiolo superandolo indenne. Nello stesso periodo a Boston, scoppiata l’epidemia, Mother e Boylston vaccinarono 242 persone con la mortalità del 2,5% degli inoculati contro il 15% di quelli che avevano contratto il vaiolo naturalmente. In Italia, convinto inoculatore, alieno da polemiche dottrinali, fu Angelo Gatti, che venne chiamato nel 1778 alla corte di Napoli per inoculare i membri della Real Casa. (2)Giacomo Pylarino, di Cefalonia, scrisse: Nova et tuta vaiolae excitandi per transplantionem methodus nuper inventa et in usum tracta (1714) (3)Emanuele Timoni scrisse nel 1713 al medico inglese J.Woodward la lettera “ Historia variolarum quae per institutionem excitantur” per metterlo al corrente della pratica della variolazione che aveva visto effettuare in Turchia perché la comunicasse alla Royal Society di Londra e nel 1721 pubblicava il lavoro completo, dal titolo: Tractatus de nova…variolas per transmutationem excitandi metodo. Jacopo Pylarino praticò per la prima volta la variolazione nel 1701. (4)La pratica della inoculazione o variolazione osservata dai due medici Timoni e Pylarino consisteva nell’inoculare nella regione deltoidea del braccio, la più carnosa dell’arto, il pus del vaiolo ad andamento benigno al decimo giorno della malattia. Ci si preoccupava che le persone da inoculare fossero nelle migliori condizionim organiche. La tecnica dell’inoculazione secondo Gatti Fare due leggerissime incisioni sulla cute e applicare sopra queste incisioni un filo imbevuto di materia vaiolosa, oppure le croste del vaiolo polverizzato ed un cerotto che serva a tener fermo il filo o la polvere e con lui Gianmaria Bicetti Buttinoni(5), mentre in Svizzera furono Tronchin e Tissot(6). Gli eccellenti risultati convinsero anche l’imperatrice d’Austria Maria Teresa a far inoculare i suoi due figli arciduchi e l’arciduchessa, mentre Caterina di Russia si sottopose lei stessa all’inoculazione. In Francia le prime inoculazioni risalgono al 1754 e trovarono il favore e il sostegno di personaggi come Voltaire, Condamine(7), D’Alembert, specialmente dopo che re Luigi XV era rimasto vittima del crudele morbo. Praticata nelle corti la variolizzazione passò alla popolazione. Tuttavia l’inoculazione fu avversata da certi settori della cultura francese saldamente ancorata alla tradizione dottrinaria di stampo ippocratico, secondo la quale la malattia era considerata come lo sfogo necessario attraverso la pelle di un principio nocivo che avrebbe reso l’organismo immune da quella malattia. Ciò indusse il Parlamento di Parigi a chiedere alla facoltà di Teologia di esprimere il suo parere sull’inoculazione, e fu necessario attendere il 1764 perché la facoltà di Teologia si esprimesse a favore dell’inoculazione, perché nel 1763 aveva espresso parere contrario con la seguente motivazione: ”Basta che si tratti di una novità perché sia da considerare come condannabile." Nel 1774 lo stesso re Luigi XVI fu inoculato (ma ciò non costituì un valido rimedio contro la ghigliottina). In Italia Antonio Genovesi e Cesare Beccarla furono fra i primi fautori di questa pratica; Pietro Verri vi dedicò l’ultimo numero del “Caffè” e Giuseppe Parini una sua ode. La prima regione in Italia ad eseguire la pratica dell’inoculazione (chiamata anche innesto, oltre che variolizzazione), fu la Toscana nel 1756, quando furono inoculati sei bambini dell’Ospedale di S. Maria degli Innocenti, seguita dalla Repubblica di Venezia nel 1767. Tuttavia in Italia la pratica ebbe un rilievo statisticamente rilevante solo in alcune città della Toscana e a Napoli. In Italia le opposizioni all’inoculazione furono poche e neppure la Chiesa fu contraria. Se motivazioni di carattere religioso ci furono, esse furono per lo più d’oltrAlpe e di parte protestante. L’obiezione più importante fatta alla pratica della variolizzazione era quella che il variolizzato potesse a sua volta essere fonte di contagio. Infatti non si può escludere che certe epidemie di vaiolo possano essere state innescate da pratiche di variolizzazione. Si rese perciò necessario che l’inoculazione fosse praticata in ambienti maggiormente controllati e lontani dai grandi centri urbani, in condizioni di isolamento. Per questo motivo l’Inghilterra fu la prima a fondare nel 1746 a Londra un ospedale per l’inoculazione del vaiolo e la contumacia dei variolizzati, oltre che per la cura del vaiolo stesso(8). L’esempio fu presto seguito dai paesi del Nord Europa. La pratica della variolizzazione trovò una concreta diffusione soltanto in Inghilterra, sia per l’intervento dello Stato(9) che per le iniziative caritatevoli private. La stessa cosa non si verificò in Francia dove il numero delle persone inoculate non superò le 60.000-70.000. In realtà era chiaro a tutti che la pratica della variolazione trasmetteva il vero e proprio vaiolo e si erano avuti casi tragici di fallimenti, come quello riferito da Luigi Sacco, relativo ad una epidemia insorta a Modena nel 1778 in seguito ad un caso di variolazione. La pratica della variolazione, che era stata iniziata a Londra nel 1722, sul finire del XVIII secolo, a causa degli insuccessi sopra riferiti, anche se i benefici di tale pratica erano stati superiori al male prodotto, iniziò gradualmente ad essere abbandonata. Ma la vera causa del definitivo abbandono della variolizzazione fu la scoperta jenneriana. (5)Cui Giuseppe Parini avrebbe dedicato una sua ode. (6)Tissot, dottore di medicina a Montpellier, fu un sostenitore della variolizzazione e del vaiolo dava questa definizione:” Il vaiolo umano è malattia spontanea che nasce da vari errori di dieta(…). Nasce adunque egli da un veleno del suo genere, del quale in genere l’aria si infetta e che ricevuto dai fluidi umani a poco a poco li contaminano(…). Ma la vera ed infiammatoria indole del morbo sovente vien cambiata dalle avventizie qualità dell’aria e da’ vari seminei morbi che stanno negl’infermi acquattati.” (7)Charles Marie de La Condamine pubblicò tre memorie in difesa dell’inoculazione : nel 1754, comunicata all’Académie Royale des Sciences, che resterà la più importante presa di posizione in favore dell’innesto per tutto il XVIII secolo; nel 1755 e nel 1765. Nella prima ricostruisce la storia dell’innesto affermando che “ è stata da tempo immemorabile praticata in Circassia e nei paesi vicini al Mar Caspio “ (8)London Small Pox and Inoculation Hospital (9)In Inghilterra l’inoculazione fu considerata servizio pubblico e misura di sanità pubblica. La svolta della vaccinazione jenneriana Furono la casualità e la intelligenza di un medico condotto inglese a portare finalmente alla scoperta della definitiva risoluzione della profilassi del vaiolo. Edoardo Jenner (1749-1823), membro della Royal Society di Londra, medico condotto a Berkeley, suo paese di origine, nel 1775 aveva ricevuto l’incarico dal governo inglese di praticare la variolizzazione nella contea di Gloucester, ma si accorse che in alcune persone, mai affette da vaiolo, l’innesto non attecchiva. Furono i contadini del luogo a riferirgli che coloro che erano stati colpiti dal Cow-pox erano immuni dall’infezione vaiolosa. Il Cow-pox era una specie di vaiolo che colpiva le vacche alle mammelle, infettate a loro volta dalle mani dei mungitori che si erano infettati da cavalli ammalati di una malattia chiamata “grease” nota anche come “acqua alle gambe”. Alcuni chirurghi inglesi, Sutton e Fowster, già nel 1768 avevano inoculato vaccino umano a persone contagiate da vaiolo vaccino senza che la malattia si manifestasse, e nel 1774 un contadino del Glucestershire, Benjamin Jesty, aveva inoculato il vaiolo vaccino a sé stesso, alla moglie e ai figli; inoltre la pratica della vaccinazione era conosciuta anche in Francia e in Germania, nell’Holstein, tanto che i tedeschi ne rivendicarono la priorità. Ma a questo proposito Luigi Sacco, nel suo Trattato di vaccinazione, pubblicato nel 1809, scriverà:” (…) il merito non consiste nel veder un fenomeno, ma nel cavarne costrutto, scoprendone le relazioni (…) Cadevano i gravi abbandonati a sé anche prima del secolo di Galileo, ma Galileo solo scoprì le leggi della loro caduta, per cui ne derivò tanto vantaggio alla fisica.(…). Ci vollero, perciò, l’impegno, la curiosità e la perspicacia di Edoardo Jenner perché questa realtà venisse a galla e da essa potesse nascere la prima grande rivoluzione della storia in fatto di profilassi immunitaria contro una malattia infettiva. Solo dopo 21 anni di esperimenti egli giunse al convincimento di essere giunto in possesso di un metodo rivoluzionario di profilassi antivaiolosa. Il 14 maggio 1796 egli vaccinò con il suo metodo il bambino James Phipps con pus tolto dalla contadina Sara Nelms che era affetta da Cow-Pox. Così egli scrive nel suo “Ricerca sulle cause e gli effetti del vaiolo vaccino” pubblicato nel 1798: ”Sarah Nelmes, mungitrice in una fattoria di questa zona, venne attaccata dal Cow-pox delle vacche del suo padrone nel maggio del 1796. Ricevette l’infezione in una parte della mano che era stata leggermente lesa in precedenza dal graffio di una spina.Una larga pustola ulcerosa e gli usuali sintomi accompagnarono come di solito la malattia.(…) Al fine di osservar con maggiore accuratezza il progresso del contagio, scelsi un ragazzino ben robusto, di otto anni circa, con l’intenzione di innestargli il Cow-pox: La materia venne presa dalla piaga sulla mano di una mungitrice ( Sarah Nelmes)(…). Tale materia venne inserita, il 14 maggio del 1796, nel braccio del ragazzo per mezzo di due superficiali incisioni che scalfirono appena le dita, della lunghezza di circa mezzo pollice ciascuna. Al settimo giorno il ragazzo lamentò dolori all’ascella e al nono soffrì di brividi di freddo ed ebbe un leggero mal di testa. Per tutto l’intero giorno egli fu visibilmente malato e passò una notte abbastanza inquieta, ma il giorno seguente stava perfettamente bene.(10)” Il bambino, che in seguito fu inoculato con pus del vaiolo umano (Small Pox), non si ammalò; ma soltanto due anni dopo, nel 1798, Jenner pubblicò a sue spese il libretto dal titolo "Ricerche sulle cause e sugli effetti del vaiolo vaccino", attirando su di sé l’attenzione e l’interesse dei governi di tutta l’Europa e ben presto il metodo proposto da Jenner fu ufficialmente riconosciuto come valido. “Un secolo dopo Jenner-scrive René Dubos-Pasteur capì che la vaccinazione antivaiolosa non era in realtà che l’applicazione particolare di una legge generale di natura, cioè che era probabile vaccinare contro molti tipi di malattie microbiche usando microrganismi della stessa specie, ma di virulenza attenuata. Questa affermazione portò allo sviluppo di tecniche generali per la produzione di vaccini e diede origine all’immunologia come scienza.(…) In altre parole, centocinquant’anni di scienza sperimentale sistematica trasformarono la conoscenza empirica della lattaia negli acuti ragionamenti dell’immunochimica professionale.” I limiti della vaccinazione antivaiolosa Il vaiolo delle vacche o Cow Pox, molto diffuso nella campagna inglese, era poco diffuso nel resto del mondo, perciò si presentò il problema del reperimento della linfa vaccinica, della sua conservazione e della sua diffusione in condizioni controllate, che fosse sicuro e senza perdita di efficacia. Inizialmente si cercò di ovviare al problema del difficile reperimento della linfa, vaccinando da braccio a braccio, inoltre la linfa vaccinica a secco si conservava per almeno due anni, il che consentiva di diffonderla anche in paesi lontani. In breve tempo però ci si rese conto dell’insorgere di alcuni problemi: Il vaccino jenneriano riproduceva il Cow Pox, ma la sua crescita per passaggi successivi in una specie animale diversa (umana invece che bovina), riduceva il suo potere immunizzante. Il passaggio da braccio a braccio, inoltre, favoriva la trasmissione di altre malattie infettive come la sifilide.Ad ambedue questi problemi si ovviò11 dal 1864 utilizzando solamente vaccino preso dalle vacche, abolendo la vaccinazione da braccio a braccio, soluzione tardiva rispetto a quella già presa nella stessa direzione nel Regno di Napoli nel 1805 da Troja e nel 1810 da Galbiati, i quali avevano praticato la retrovaccinazione, passando la linfa dall’uomo all’animale, sia per garantirsi una fonte ricca di linfa, sia per avere una linfa che riducesse il rischio di altre malattie come la sifilide. Nel 1845, sempre a Napoli, Negri inizierà a produrre sistematicamente linfa vaccinica direttamente dalle vacche. Un terzo problema fu quello di far pervenire il vaccino nei luoghi più remoti, garantirne la fornitura e trovare le migliori modalità di conservazione. L’elemento decisivo fu la preparazione di un vaccino liofilizzato prodotto dai francesi Wurtz e Camus nel corso della I Guerra Mondiale, che permise alla Francia di inviare nelle proprie colonie (Costa d’Avorio, Guinea, Guiana Francese) milioni di dosi di vaccino. I vaccini essiccati contribuirono sostanzialmente alla campagna di eradicazione del vaiolo avviata dall’OMS nel 1966. (10) R. Dubos, Pasteur e la scienza moderna, trad. it. Einaudi, Torino, 1962, pp. 98-99. (11) Congresso di Lione del 1864 (12) Autore dell’opera in sei volumi System einer vollstandigen medizinischen Polizey,1779-1819 Per quanto riguarda l’Italia, il primo a praticare le prime vaccinazioni jenneriane in Liguria nel 1800 fu il dott. Onofrio Scassi, che era venuto a conoscenza dello scritto di Jenner attraverso il medico inglese dott. Batt. Gli fece seguito nel 1801 Luigi Marchelli, che pubblicò un’importante memoria dal titolo:Memoria sull’inoculazione della vaccina e il Granducato di Toscana che il 12 giugno 1801 stabiliva che ”l’inoculazione del vaccino si facesse nello Spedale degli Innocenti”. Ma si deve soprattutto al dott. Luigi Sacco, medico primario dell’Ospedale Maggiore di Milano, sostenuto dalle autorità francesi, il merito di avere propugnato la vaccinazione in Italia. Sacco seppe della vaccinazione jenneriana verso la fine del 1799 ed avendo avuto la fortuna di avere trovato due vacche affette da Cow-pox vicino a Varese, col pus raccolto da esse vaccinò i suoi primi cinque bambini della campagna varesina e sé stesso, controllando a distanza l’avvenuta immunità con l’innesto di vaiolo umano. Nel 1806 Luigi Sacco riferì di avere fatto vaccinare o vaccinato personalmente nei soli Dipartimenti del Mincio, dell’Adige, del Basso Po e del Panaro più di 130.000 persone. In breve volger di tempo i vaccinati del Regno d’Italia, sempre più esteso per le conquiste napoleoniche,giunsero a un milione e mezzo. Lo stesso entusiasmo invase anche il Regno delle due Sicilie. Questi fatti avvenivano mentre era in atto la rivoluzione industriale con un forte inurbamento dalle campagne, il venire alla ribalta delle problematiche sociali, che si accompagnarono alla nascita dell’igiene pubblica, propugnata soprattutto dal tedesco P. Frank(12) , che ne attribuiva la competenza e la responsabilità allo Stato. Ma sarà invece Napoleone a dare impulso alla pubblica igiene. L’obbligatorietà della vaccinazione fu adottata nella popolazione generale per la prima volta nel principato di Piombino e Lucca nel 1806, nel 1807 in Baviera, nel 1810 in Norvegia, nel 1815 in Svezia, nel 1867 in Inghilterra, nel 1874 in Germania, nel 1874, dopo una terribile epidemia, in Giappone. Nell’Italia post-risorgimentale, conseguita l’unità della Nazione, la vaccinazione antivaiolosa fu resa obbligatoria nel 1888. La vaccinazione era obbligatoria, inoltre, in quasi tutti gli eserciti. Il risultato conseguito, dopo l’obbligatorietà della vaccinazione antivaiolosa, fu che, contro i 5000-7000 decessi da vaiolo per milione di abitanti, si scese ad alcune centinaia per milione di abitanti. Nonostante ciò, ci si avvide che la copertura vaccinale era completa nei primi 5 anni, mentre dopo vent’anni era persa. Infatti, dopo un periodo di vent’anni, durante il quale il vaiolo era sembrato in rapido declino nei paesi che avevano adottato la vaccinazione jenneriana, il morbo si ripresentò con diverse pandemie che interessarono l’Europa intera(13), ma con indici di mortalità decisamente più bassi rispetto al passato. Si era spostata anche l’età di massima incidenza del morbo, che cominciava ad interessare un numero crescete di adulti; questa constatazione indusse i governi ad avviare una campagna di rivaccinazione(14) che fu adottata per prima dalla regione tedesca del Wurttemberg nel 1829, mentre l’Austria, che introdusse la rivaccinazione obbligatoria tardivamente, ebbe livelli di mortalità da vaiolo centinaia di volte superiori a quelli della Germania. Negli ultimi decenni del XIX secolo si ebbero decisivi successi nella lotta contro il vaiolo e le altre malattie infettive, e questo fu dovuto anche, oltre che alle migliorate condizioni igieniche delle popolazioni europee, anche se non dovunque, alla socializzazione della lotta alle malattie infettive. Per quel che riguarda la lotta contro il vaiolo, numerosi paesi introdussero nel loro sistema giuridico l’obbligatorietà della vaccinazione e, dove non vigeva l’obbligatorietà, il controllo del vaiolo fu un problema di natura pubblica con precise regole sulla denuncia dei casi e il loro isolamento. Le leggi regolarono anche la produzione e la distribuzione del vaccino(15). Fu abolitala vaccinazione da braccio a braccio, per i motivi già detti e si ricorse alla sola linfa prelevata direttamente dalla vacca. A questo punto è giusto dare adeguate risposte a legittime domande: 1) Perché l’eradicazione del vaiolo è stata possibile sul piano biologico? Perché il vaiolo colpisce solo l’uomo. Del virus non vi sono serbatoi animali o vettori che lo veicolino, come gli insetti; né il virus viene immagazzinato in piante o animali. Il vaiolo è contagioso solo quando è manifesto. Non esistono portatori asintomatici, come nel tifo, epatite B o AIDS, perciò ogni caso di infezione corrisponde a un caso di malattia. Ciò significa che per la diagnosi di vaiolo è sufficiente l’osservazione clinica. Il virus del vaiolo è geneticamente stabile senza ceppi mutanti. 2) Quando dichiarare una zone libera dal vaiolo? a) Quando per due anni consecutivi non si fossero più segnalati casi(16) Nel 1977 casi di vaiolo venivano segnalati solo in Somalia, territorio difficile da controllare per l’elevato numero di persone dedite al nomadismo. L’ultimo caso si ebbe in questa regione nell'ottobre 1977. Dal momento che nei due anni successivi non si ebbero nuovi casi della malattia, nel maggio 1979 l’OMS decretò eradicato il vaiolo dalla Terra. Allo stato attuale l’unica fonte di contagio possibile è costituita dai virus coltivati in laboratorio. Oggi nel mondo solo sette laboratori conservano ceppi del virus del vaiolo, e sono sotto stretto controllo. Per salvaguardare l’Umanità da eventuali future epidemie di vaiolo, che potrebbero essere scatenate o da cause accidentali o da atti terroristici, l’OMS ha previsto di conservare ampie scorte di vaccino essiccato e congelato. (10)R. Dubos, Pasteur e la scienza moderna, trad. it. Einaudi, Torino, 1962, pp. 98-99. (11)Congresso di Lione del 1864 (12) Autore dell’opera in sei volumi System einer vollstandigen medizinischen Polizey,1779-1819 (13)Pandemie di vaiolo si ebbero in Europa negli anni: 1824-1829; 1837-1840; 1870-1871. (14)I bambini sarebbero stati vaccinati all’età di 2 a e 10 anni. (15)Istituti vaccinogeni centrali stabilirono i controlli di Stato sulla qualità del prodotto. (16)Principio enunciato dalla Unità per l’eradicazione del vaiolo di Ginevra.

Futuro della fibra ottica

Prysmian e il ruolo delle tecnologie in fibra ottica verso un futuro più verde tempo di lettura 2 min La fibra ottica garantisce stabilità e affidabilità alla rete, sicurezza contro gli attacchi informatici, migliore sostenibilità ambientale, come risulta da un nuovo studio del gruppo FTTH Virtual Le tecnologie in fibra ottica hanno un ruolo importante nel percorso verso un futuro più verde, in quanto la fibra offre maggiore stabilità e affidabilità, e una durata di rete più lunga. Sono questi i principali takeaway di un whitepaper pubblicato da Prysmian, gruppo attivo nel settore dei sistemi in cavo per l'energia e le telecomunicazioni, che saranno discussi oggi nel panel “Sustainability strategies: is Fibre the solution, or part of the problem?” (Strategie di sostenibilità: la fibra è la soluzione, o parte del problema?) che si terrà durante la FTTH Virtual Conference questa settimana. Il gruppo è ancora una volta Platinum Sponsor dell'evento che fornisce una conoscenza approfondita dell'FTTH e di altre tecnologie e soluzioni end-to-end in fibra. Prysmian sarà al centro dell'attenzione alla conferenza di quest'anno con Philippe Vanhille, Executive Vice President Telecom Business di Prysmian Group, che ha partecipato al panel per discutere di come l'ecosistema FTTH stia accogliendo la lotta ai cambiamenti climatici, in quanto è la tecnologia a banda larga più carbon-neutral e, allo stesso tempo, un abilitatore di soluzioni per una società più sostenibile. Secondo Vanhille: "La fibra offre maggiore stabilità e affidabilità e garantisce una durata di rete prevista più lunga. Questo non solo fa risparmiare denaro, ma riduce l'impatto ambientale poiché viene utilizzato meno materiale. Grazie ai molti anni di esperienza nello sviluppo di prodotti che vanno in questa direzione, siamo in grado di progettare soluzioni in fibra più efficienti dal punto di vista energetico, pur continuando a fornire la robusta infrastruttura digitale necessaria in un mondo connesso. Stiamo apportando miglioramenti significativi in termini di efficienza energetica, ma questo non è uno sforzo solitario. L'intero ecosistema deve unirsi per rendere le reti sostenibili una realtà, con una visione che vada oltre i benefici a breve termine e adotti le migliori tecnologie disponibili". Come dimostrato in un recente whitepaper pubblicato da Prysmian, la fibra ottica contribuisce a diminuire il consumo energetico, con riduzioni ottenute durante la produzione e ulteriormente integrate una volta che è stata implementata nelle reti e utilizzata per la connettività dell'ultimo miglio. Ciò è dovuto all’uso dello spettro, che può essere acceso su richiesta, invece che costantemente, in ogni punto finale. La fibra è anche più efficiente dal punto di vista energetico rispetto ai suoi concorrenti ADSL, PSTN e mobile, grazie alla sua affidabilità, alla maggiore durata e alle capacità a prova di futuro, ancor più se si sceglie una fibra insensibile alla piegatura di alta qualità G.657.A2. Le fibre insensibili alla piegatura inoltre riducono drasticamente il rischio di hackeraggio grazie alla loro composizione che previene la dispersione di potenza ottica che può risultare in perdita di segnale verso l’esterno, e la conseguente possibile intercettazione del segnale trasmesso tramite l’utilizzo di dispositivi TAP, che sfruttando il punto debole delle fibre non insensibili alla piegatura permetterebbero di piegare la fibra, estrarre la luce e reindirizzarla al computer dell’hacker.
Prysmian ha presentato la sua estesa gamma di minicavi Sirocco HD, che ora include un cavo con 576 fibre. I cavi Sirocco HD forniscono diametri e densità di fibre record a livello mondiale per i minicavi soffiati e il nuovo cavo offre 576 fibre in un diametro di 9,5 mm, fornendo una densità di 8,1 fibre per mm2. È installabile in un condotto di 12 mm, con vantaggi sia in termini di costo totale di implementazione della rete che di impatto ambientale.
Pensi all’Italia e, per associazione, ti viene in mente il sole, la pasta,l’amore e, magari, la corruzione. A tutto,insomma, meno che alla banda larga. Sbagliato: sotto la guida di Silvio Scaglia l’Italia è diventato uno dei paesi leader della tecnologia detta della fibra sotto casa”. Così inizia l’articolo che la rivista Time, nel 2003, ha dedicato a Silvio Scaglia, l’unico italiano inserito nella lista dei “tech survivors”, cioè una quindicina al mondo, non di più, di guru dell’innovazione usciti indenni dallo sboom della new economy. Silvio Scaglia, nato il 14 ottobre 1958 a Lucerna (Svizzera), ma cresciuto a Novara, ha sempre creduto e investito in imprese che fanno vera innovazione. Dopo una partenza da self made, nel vero senso della parola. Una volta conseguita la laurea con lode in ingegneria elettronica al Politecnico di Torino, Scaglia va a lavorare alla Aeritalia Spazio e segue, per un anno, il progetto di un satellite per la Nasa. Il lavoro gli piace, ma il richiamo di un’esperienza aziendale è troppo forte. E così, rispondendo ad un annuncio apparso sui quotidiani, si propone ad Arthur Andersen and Consulting dove lavorerà per due anni, prima come programmatore, poi promosso all’attività di consulenza. Sono anni intensi, di duro lavoro. Scaglia perfeziona il suo inglese fino a superare con successo il Toefl e il Gmat, passaggio indispensabile per poter sostenere, con successo, gli esami per accedere al corso di laurea presso Harvard o Stanford, contando su una borsa di studio dell’Istituto Bancario San Paolo per sostenere i costi di quest’esperienza. Ma, nel frattempo, sempre rispondendo ad un annuncio sul giornale, l’ingegnere riceve una proposta da parte di Mc Kinsey, base Milano, per lavorare nello staff di Gianfilippo Cuneo. Vi lavorerà per tre anni prima di seguire Cuneo presso lo spin off di Mc Kinsey, la Bain & Cuneo associati. Qui Gianfilippo Cuneo gli affiderà, tra gli altri incarichi, la consulenza con la Piaggio. Si crea, in quella circostanza, un clima di fiducia e di stima reciproca con Giovanni Alberto Agnelli. Al punto che quest’ultimo, quando diventa Ceo di Piaggio Spagna, propone Scaglia quale direttore generale del ramo iberico dell’azienda. Dal 1991 al ’93 Scaglia lavora a Madrid per poi trasferirsi a Pontedera in qualità di senior vice president con competenze specifiche sull’attività fuori dall’Europa, in particolare in India e Cina. La fama di “global tech guru” e’ arrivata con il ruolo di pioniere che Silvio Scaglia ha svolto in tre fondamentali occasioni: 1) nel 1995, quando, in procinto di trasferire la famiglia a Singapore, quartier generale delle attività asiatiche del gruppo, Francesco Caio gli offre di prender parte, come direttore generale, alla start up di Omnitel. Pochi mesi dopo, quando Caio passa alla guida di Olivetti, Scaglia prende il suo posto come CEO. Sotto la sua guida Omnitel, oggi Vodafone Italia, diventa il secondo operatore mobile italiano e una delle società più redditizie d’Europa, grazie ad una crescita esponenziale: da zero ad oltre dieci milioni di abbonati. 2) nel 1999, invece di ritirarsi a vita privata per godersi le non disprezzabili stock options (14 miliardi di lire) incassate all’uscita da Omnitel, ceduta dall’Olivetti a Mannesman, sceglie la carriera di imprenditore, per dar corpo ad una visione molto chiara: dati, voce e televisione avrebbero dovuto viaggiare assieme su nuove reti di trasmissione a banda larga. Per realizzare questo progetto occorreva però dare avvio ad un piano di cablaggio molto esteso, in grado di comprendere le maggiori città italiane. Scaglia dà così il via, assieme ad alcuni manager e al finanziere Francesco Micheli, ad e.Biscom, la prima società al mondo a realizzare una radicale novità nel campo delle telecomunicazioni, costruendo una rete interamente basata sul protocollo Ip, in grado di connettere in fibra ottica anche utenti residenziali, offrire televisione digitale e video on demand su fibra ottica e adsl. Una sfida temeraria, a detta di molti, ma la sfida si rivela, alla prova dei fatti, sostenibile sul piano industriale. La tecnologia lanciata da Fastweb per la prima volta al mondo oggi è il punto di riferimento per tutte le aziende di telecomunicazioni. 3) Nel 2007, quando, una volta cedute le azioni Fastweb a seguito dell’offerta pubblica lanciata da Swisscom, l’ingegner Scaglia si ritrova miliardario, con un patrimonio che lo qualifica, secondo Forbes, tra i mille più ricchi del mondo. E’ da questa base che Scaglia parte per nuove avventure imprenditoriali ad alto contenuto innovativo. Nasce così Babelgum, una delle più innovative piattaforme digitali di video professionali dedicati all’entertainment a livello mondiale, disponibile su web e su telefoni mobili di nuova generazione. 4) L’ingegner Scaglia ha poi messo a frutto il suo know how nel mondo dei nuovi media con il mondo del lusso, uno dei trend più vivaci dell’economia globale. Oggi l’ingegnere guida un gruppo leader nel mondo del talent management e del lusso grazie al network di agenzie di model management Elite World e Women Management. Inoltre, ha rilevato il controllo de La Perla, brand storico della lingerie di lusso italiana, impegnandosi in prima persona nel rilancio industriale dell’azienda. Le aziende che l’ing. Scaglia ha contribuito a creare danno oggi lavoro direttamente a circa 15.000 persone ed indirettamente a oltre 15.000 persone e dunque complessivamente a 30.000 famiglie. Sono queste le credenziali di un uomo con la vocazione di aprire strade nuove, al di là di quegli stereotipi sull’Italia che, con involontaria ed amara ironia, ha evocato il giornalista del “Time”.

Friday, May 27, 2022

Come testare i cavi in fibra ottica di OTDR L'OTDR, il cui nome completo è riflettometro nel dominio del tempo ottico, è uno dei metodi più popolari per testare la perdita di luce nell'impianto di cablaggio. Nella maggior parte delle circostanze, indica anche uno strumento di test in fibra ottica per caratterizzare le fibre ottiche. Gli OTDR vengono sempre utilizzati sui cavi OSP per verificare la perdita di giunzione o l'individuazione di danni ai cavi in fibra ottica. A causa del calo del prezzo OTDR negli ultimi anni, viene sempre più applicato dai tecnici per il processo di installazione del sistema. L'OTDR utilizza la luce retrodiffusa della fibra per implicare la perdita, che è una misurazione indiretta della fibra. L'OTDR funziona inviando un impulso di luce laser ad alta potenza lungo la fibra e cercando segnali di ritorno dalla luce retrodiffusa nella fibra stessa o dalla luce riflessa dai connettori o dall'interfaccia di giunzione. Il test OTDR richiede un cavo di lancio affinché lo strumento si stabilizzi dopo che i riflessi causati dall'impulso di prova ad alta potenza sovraccaricano lo strumento. Gli OTDR possono utilizzare un cavo di lancio o un cavo di lancio con un cavo di ricezione, anche il risultato del tester di ciascuno è diverso. Prova solo con cavo di lancio Un lungo cavo di permuta consente all'OTDR di stabilizzarsi dopo l'impulso iniziale e fornisce un cavo di riferimento per testare il primo connettore sul cavo. Quando si esegue il test con un OTDR utilizzando solo il cavo di lancio, la traccia mostrerà il cavo di lancio, la connessione al cavo in prova con un picco dalla riflettanza dalla connessione, il cavo in fase di test e probabilmente un riflesso dall'estremità lontana se è terminato o scisso. La maggior parte delle terminazioni mostrerà riflettanza che aiuta a identificare le estremità del cavo. Con questo metodo, non è possibile testare il connettore sull'estremità opposta del cavo sottoposto a test poiché non è collegato a un altro connettore ed è necessaria la connessione a un connettore di riferimento per effettuare una misurazione della perdita di connessione.
Prova con il cavo di lancio e ricezione Posizionando un cavo di ricezione all'estremità opposta del cavo sottoposto a test, l'OTDR può misurare la perdita di tutti i fattori lungo l'impianto dei cavi, indipendentemente dal connettore, dalla fibra dei cavi e da altri collegamenti o giunzioni nel cavo sottoposto a test. La maggior parte degli OTDR ha un metodo di test dei minimi quadrati che può sottrarre il cavo incluso nella misurazione di ogni singolo connettore, ma tenere presente che ciò potrebbe non funzionare quando il cavo testato è a due estremità. Durante il processo dovresti sempre tenere a mente di iniziare con l'OTDR impostato per l'ampiezza dell'impulso più breve per la migliore risoluzione e un raggio di almeno il doppio della lunghezza del cavo che stai testando. Fai una traccia iniziale e vedi come è necessario modificare i parametri per ottenere risultati migliori. Gli OTDR possono essere utilizzati per rilevare quasi tutti i problemi nell'impianto di cablaggio causati durante l'installazione. Se la fibra del cavo viene rotta o se viene sollecitato eccessivamente sul cavo, questo mostrerà la fine dell'incendio molto più corta del cavo o una giuntura ad alta perdita nei punti problematici. Tranne il test OTDR, il metodo del misuratore di potenza sorgente e ottica è un'altra misurazione che testerà direttamente la perdita dell'impianto di cavi in fibra ottica, La sorgente e il misuratore duplicano il trasmettitore e il ricevitore del collegamento di trasmissione in fibra ottica, quindi la misurazione si correla bene con quella reale perdita di sistema. Un paio di: Come installare meccanicamente i connettori in fibra ottica IL prossimo Articolo: Vantaggi dei cavi a jack LSZH Industria Correlati Conoscenza Come testare il cavo Ethernet con i... 4 passaggi per scoprire l'errore ne... EPON E GPON della rete ottica passiva Adattatore connettore per fibra ott... Come scegliere un lucidatore per co... Come pulire i connettori in fibra o... Come utilizzare le apparecchiature ... Il connettore LC più popolare Come testare la tua linea telefonic... Informazioni di base sul connettore... Cose che dovresti sapere sul modem ... Come testare la tua linea telefonic... Convertitori multimediali a fibra o... Come terminare i cavi in fibra otti... Che cos'è un adattatore per fibra o... Cose che dovresti sapere sul modem ... Quando abbiamo bisogno di giunzioni... Come funziona un connettore a fibra... Come installare meccanicamente i co... I consigli per testare il connettor...

Agenzia

Tester fibra ottica

I revisori vedono la Jeep Grand Cherokee del 2008 come un eccellente veicolo fuoristrada con interni lussuosi, molte opzioni e cinque forti scelte di motore. Riprogettato per quest'anno, il SUV presenta un nuovo motore V8 da 4,7 litri che offre un aumento del 24 % della potenza e un miglioramento del consumo di carburante rispetto al precedente V8. Sebbene sia cambiato poco all'esterno, il nuovo Grand Cherokee aggiunge diverse nuove opzioni, tra cui proiettori auto-livello ad alta intensità, Sirius Backsiat TV e un sistema di intrattenimento MyGig. La Jeep Grand Cherokee ha debuttato nel 1993 ed è stata riprogettata per l'ultima volta nel 1999. La maggior parte della riprogettazione di quest'anno è un miglioramento rispetto ai modelli precedenti. Autobytel vede il nuovo SUV come "un concorrente altrettanto capace, altrettanto lussuoso, più affidabile e meno costoso a tutto, da un Land Rover LR2 a una Porsche Cayenne" e conclude che "il Grand Cherokee ha senso". La Jeep Grand Cherokee è disponibile in quattro finiture disponibili: la base Laredo, The Limited, The Overland e l'SRT-8 mentali per le prestazioni. Tutti sono disponibili in trazione integrale a due o quattro ruote, ad eccezione dell'SRT-8, che arriva solo in 4WD. Un motore diesel V6 è opzionale per le finiture limitate e terrestri.

Lunule

Thursday, May 26, 2022

Grand Cerokee

todbs.it

Il settore delle telecomunicazioni gioca un ruolo strategico per lo sviluppo del sistema economico nazionale ed europeo. La principale voce di costo di tali progetti è costituita dalle opere civili. Basti pensare che per l’Italia l’investimento necessario per la realizzazione di reti a banda ultralarga da 30 a 100 Mbps è stato valutato tra i 7 e i 15 miliardi di euro, a seconda della tecnologia utilizzata, il 70% del quale si riferisce ai costi degli scavi. Un passo in avanti verso l’ottimizzazione dei costi delle reti di telecomunicazione di nuova generazione (NGN) è stato compiuto con l’emanazione, lo scorso 29 settembre, del Decreto scavi, che contiene le specifiche tecniche delle operazioni di scavo e ripristino per la posa di infrastrutture digitali nelle infrastrutture stradali. Un provvedimento fortemente voluto dal Ministero dello Sviluppo Economico, che dà attuazione al decreto Crescita 2.0 (DL 179/2012) e che prevede notevoli semplificazioni per la posa della fibra ottica. Lo spirito del documento, entrato in vigore lo scorso 2 novembre, è, infatti, favorire l’installazione delle infrastrutture digitali anche attraverso metodologie di scavo a limitato impatto ambientale, nel rispetto di quanto previsto dal Codice delle Comunicazioni elettroniche, dal comma 3 dell’articolo 231 del Codice della Strada e dalla delibera n. 622/11/CONS dell’Autorità per le Garanzie nelle Comunicazioni. Il decreto è diviso in sezioni a seconda della tecnologia utilizzata (minitrincea, perforazione orizzontale e scavo tradizionale) e in base all’infrastruttura stradale: urbana, extraurbana e autostrade. Per salvaguardare la sicurezza delle strade, le infrastrutture digitali dovranno essere installate prioritariamente all’esterno della carreggiata, in posizione tale da non inficiare il funzionamento dei dispositivi di ritenuta eventualmente presenti e salvaguardare tutte le altre opere strutturali. Nel caso di impossibilità tecnica nell’utilizzo del marciapiede e della banchina è consentito lo scavo in carreggiata, che dovrà essere realizzato il più vicino possibile al margine. Attenzione è riservata anche alla salvaguardia dell’estetica delle strade, che dovrà essere ripristinata utilizzando gli stessi materiali. La minitrincea Un aspetto centrale del decreto è la regolazione dell’utilizzo della minitrincea, una tecnica di scavo a basso impatto ambientale che, grazie alla creazione di trincee di 5 cm di larghezza per una profondità di 30 cm, a fronte di dimensioni di 40 x 100 cm dei sistemi di scavo tradizionali, consente di abbattere drasticamente tempi e costi delle operazioni di posa. Con questa tecnica, infatti, la velocità di posa in ambito urbano è di circa 150 m al giorno, con costi che vanno dai 18 ai 23 euro/m, compresi di ripristino del manto stradale, contro una velocità di avanzamento di 20 m giorno per un costo di circa 45-55 euro/m dei sistemi tradizionali. Il decreto sottopone l’utilizzo della minitrincea a determinate condizioni. In particolare, si può ricorrere a questa tecnica se la quota altimetrica prevista per l’estradosso della struttura di contenimento dell’infrastruttura digitale sia almeno di 25 cm, nel caso di posizionamento nella banchina non pavimentata o nel marciapiede, e non inferiore a 40 cm, in modo da non creare vincoli alle operazioni di manutenzione della strada. In ambito urbano, invece, nel caso di piattaforma pavimentata, basta garantire un ricoprimento minimo della struttura di contenimento dell’infrastruttura digitale pari a 35 cm. «Si tratta di un provvedimento importante – commenta Achille De Tommaso, presidente di ANFoV, Associazione per la convergenza nei servizi di comunicazione, che raggruppa oltre 30 realtà del settore -. Tuttavia, esprimere un giudizio completamente positivo sul decreto non è possibile. Sicuramente è da sottolineare la buona volontà dimostrata dal legislatore nel cercare di regolare un tema rimasto in sospeso dal 1998, più o meno la data di inizio della liberalizzazione del settore». Le principali perplessità riguardano la regolamentazione dell’uso della minitrincee, in particolare la limitazione del ricorso a questa tecnica solo sui marciapiedi e il divieto di impiego in carreggiata. «Una scelta inefficiente e pericolosa, dal momento che proprio sotto i marciapiedi “viaggia” già la maggior parte dei sottoservizi – prosegue De Tommaso -. Ciò rende sempre più difficoltoso trovare spazio per le reti in fibra, e talvolta molto difficoltoso non causare danni alle infrastrutture esistenti, rallentando enormemente il lavoro».

Ciriaco De Mita

Wednesday, May 25, 2022

Pompa di calore acqua - acqua

Kao

Riporto qui di seguito le immagini di Kenneth con i commenti per renderli fruibili anche a chi non mastica l’inglese. Questo è l’oggetto in questione: Non si tratta di un transceiver di ultima generazione, nel novembre 2018 Finisar aveva diramato un comunicato di end of life del modello a partire da luglio 2019. Si tratta di un transceiver che opera con quattro frequenze (colori) attorno ai 1310 nm e dispone di due connettori LC, uno per la ricezione e l’altro per la trasmissione, e un connettore QSFP lato switch. Al momento della prima redazione di questo articolo (dicembre 2021), su eBay è possibile acquistare questo articolo ad un prezzo attorno ai 1.000 dollari. Ma passiamo alla parte interessante, alla vera pornografia. (c) by Kenneth Finnegan Ecco come si mostra il transceiver aperto, in grigio la pasta termica che collega termicamente la componentistica al guscio esterno per regolare il calore, aspetto molto importante per il corretto funzionamento, come vedremo dopo. A sinistra la parte ottica (trasmissione in alto) con i due connettori LC e a destra l’elettronica con l’interfaccia QSFP verso lo switch. Di solito i connettori più lunghi sono quelli che portano la massa o dei segnali di rilevamento per far capire allo switch che sta per essere connesso qualcosa su quella porta. (c) by Kenneth Finnegan Una volta rimossa la pasta conduttiva, il dettaglio dei componenti è questo, con evidenziato il flusso dei dati. Riconosciamo la parte ottica, più piccola, di ricezione (ROSA, receiver optical sub-assembly), la parte di trasmissione ottica (TOSA, transmitter optical sub-assembly) e la parte superiore del circuito stampato elettronico con i due chip che fanno da retimer. Il retimer (approfondimento in inglese) è sostanzialmente un chip che ricostruisce il segnale in modo ottimale in modo tale che la sua elaborazione successiva sia la più agevole possibile. Compito del retimer è anche di [de]serializzare il segnale. (c) by Kenneth Finnegan Qui notiamo un particolare interessante: ci sono due linee separate di trasmissione per ognuna delle componenti ottiche. Questo permette di tenere separati i dati veri e propri dal resto dei segnali di controllo e dall’alimentazione per ridurre i disturbi. (c) by Kenneth Finnegan Nella parte elettronica opposta ai retimer ci sono i componenti di controllo e di alimentazione. Al centro fa la sua bella mostra un STM32F103C6, un Cortex M-3 con 32k di flash e 10 k di SRAM. Lo scopo di questo chip è di dialogare con lo switch sull’interfaccia QSFP su un bus I2C per scambiare dati di servizio come telemetria e le informazioni del transceiver oppure per aggiornare il firmware del transceiver. Difficile pensare che si possa flashare un firmware che legge o modifica i dati, in quanto la velocità di trasmissione del dispositivo è troppo elevata per le capacità di elaborazione del Cortex. Questo chip ha un aspetto metallico perché è un pezzo di silicio senza la corazza esterna in plastica realizzato con la tecnica del flip-chip. Il resto della componentistica su questo lato del circuito stampato è essenzialmente un regolatore di tensione. Il componente più alto con i lati arrotondati in basso a sinistra è l’induttore. (c) by Kenneth Finnegan Qui inizia la parte davvero bella: ecco il modulo di trasmissione (TOSA) in tutta la sua gloria. Partendo da sinistra vediamo le quattro linee dati che entrano nel chip nero di controllo dei laser, i quattro componenti verdi. Appena dopo si riconoscono quattro lenti di focalizzazione (grigie) e una singola lente di focalizzazione viola-azzurra. Le parti ottiche trasparenti con delle sbarre sono dei prismi che servono a convogliare i quattro laser su un unico punto di uscita. Nella parte superiore di fronte alla prima lente grigio scuro si nota un componente con quello che sembra un punto di saldatura. Si tratta di un diodo che funge da sensore di temperatura, in quanto la tensione di giunzione del diodo varia al variare della temperatura. A parte una rilevazione telemetrica della temperatura, il sensore serve a fornire informazioni al chip a sinistra che controlla due celle di Peltier, le due cose a forma di U a sinistra della lente azzurra. La parte TOSA lavora, infatti, a temperatura costante perché la minima dilatazione o contrazione termica potrebbe causare problemi di allineamento dei laser.
(c) by Kenneth Finnegan Questa è la ricostruzione presunta dei percorsi dei quattro fasci laser dagli emettitori verso il connettore LC attraverso i prismi. (c) by Kenneth Finnegan La parte di ricezione è meno interessante, la parte nera a destra sembra essere un insieme di prismi per separare i quattro fasci, purtroppo non è possibile disassemblare la parte ottica per vedere i dettagli. Sulla sinistra i quattro sensori dei fasci e le linee dati verso la parte elettronica. Come detto in apertura, stiamo parlando di una tecnologia non nuovissima, quindi i GBIC ad alta velocità di ultima generazione potrebbero essere ancora più bizzarri. Se avete osservazioni che possono chiarire meglio aspetti su cui ho sorvolato, aggiungetele pure nei commenti.