Votare è un tuo diritto, ma non se sei fuorisede

Ad oggi in Italia sono circa 5 milioni le persone che vedono il loro diritto di voto ostacolato dal tempo e la distanza che separa il loro luogo di lavoro o studio dal seggio elettorale a loro assegnato. Nonostante ripetuti tentativi di garantire questo diritto, ad oggi non c’è ancora una soluzione proposta che sia stata approvata

Persona che vota – Stockphotos


Costituzione della Repubblica Italiana – Art. 3

Tutti i cittadini hanno pari dignità sociale e sono eguali davanti alla legge, senza distinzione di sesso, di razza, di lingua, di religione, di opinioni politiche, di condizioni personali e sociali.

È compito della Repubblica rimuovere gli ostacoli di ordine economico e sociale, che, limitando di fatto la libertà e l’eguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana e l’effettiva partecipazione di tutti i lavoratori all’organizzazione politica, economica e sociale del Paese.

I numeri
Esclusi dal voto, sono quelle persone fuori sede ma non troppo, studenti e lavoratori che sono lontani da casa ma non abbastanza (nel senso che non si trovano all’estero). Il libro bianco sull’astensionismo “Per la partecipazione dei cittadini. Come ridurre l’astensionismo e agevolare il voto” è un documento realizzato dalla Commissione di esperti per conto del Governo per indagare le cause dell’astensionismo e proporre soluzioni in grado di arginare questo fenomeno ed è stato completato pochi mesi fa. Secondo quanto riportato, sono quasi 5 milioni gli elettori che lavorano o/e studiano in luoghi diversi dalla Provincia (o Città metropolitana) di residenza. 5 milioni di persone sono circa il 10% del totale dei cittadini italiani aventi diritto di voto. Di questi, 1,9 milioni sono quelli che impiegherebbero oltre 4 ore, tra andata e ritorno, di viaggio tra strada e autostrada. Quasi 700 mila elettori (circa il 14%) sono quelli che affronterebbero un viaggio, sempre tra andata e ritorno, complessivamente superiore alle 12 ore.

I costi
È chiaro quindi che sono tanti i lavoratori e gli studenti fuori sede che devono impiegare molte ore per poter esercitare un diritto fondamentale, così come sono molti i costi in termini di denaro oltre che di tempo. Se un lavoratore, dopotutto, uno stipendio ce l’ha, gli studenti invece devono fare perlopiù affidamento sulle proprie risorse e i rimborsi parziali sul costo del biglietto del viaggio. Parziali, appunto, perché coprono solo una percentuale del costo (circa il 60-70% per i treni, 60% per i traghetti e 40% per l’aereo in media) e comunque non sono inclusi gli spostamenti necessari per raggiungere piccoli centri abitati, molto spesso mal collegati ai grandi centri urbani coi mezzi pubblici. Insomma questi sconti non bastano, i prezzi risultano comunque molto alti, non sono coperti davvero tutti gli spostamenti e i termini prevedono condizioni a volte troppo complesse che spingono a desistere della loro fruizione.

(Se il voto deve essere “uguale” allora lo deve essere anche a parità di condizioni economiche: e quindi gratuito per tutti. Infine, si tratta, in ogni caso, di un costo per la comunità oltre che di un costo privato: e se si capisce perché un cittadino debba giustamente contribuire con le proprie imposte per rendere possibile le elezioni, più difficile giustificare l’obolo per le spese logistiche di altri elettori.)

fuorisède (o ‘fuòri sède’) locuz. usata come agg. e s. m., invar. – Detto di studenti che frequentano scuole o istituti universitarî in località diversa (spesso molto distante) da quella di residenza; meno spesso con uso più generico, di persone che lavorano in località diverse da quella della residenza abituale.” – Treccani

Italia VS Europa
Partiamo da chi, come noi, non prende in considerazione una norma sul voto dei fuori sede: sono solo due paesi, Cipro e Malta, due stati insulari con dimensioni decisamente più ridotte rispetto all’Italia e dove, nel peggiore dei casi, per raggiungere il proprio seggio elettorale ci vogliono al massimo 3 ore di viaggio in macchina. Seppure nulla vieti anche a questi paesi di considerare il voto fuori sede, certamente è più comprensibile perché fino ad oggi non sia stato richiesto e considerata a gran voce.

E gli altri Paesi? Come spiega uno studio realizzato dal comitato “Iovotofuorisede” e dall’associazione The Good Lobby, in Europa molti paesi hanno adottato possibili soluzioni. In Austria, Germania, Irlanda, Regno Unito, Spagna, Svizzera viene praticato il voto per corrispondenza; in Belgio, Francia, Paesi Bassi si può votare delegando un’altra persona a farlo; in Danimarca, Estonia, Norvegia, Portogallo, Svezia, esiste il voto anticipato in un luogo diverso da quello di residenza; infine il caso unico e innovativo dell’Estonia dove si può votare anche elettronicamente.

I tentativi di normare il voto fuori sede (spoiler: finita male)
Alla commissione Affari costituzionali della Camera negli ultimi anni sono state depositate cinque proposte di legge per regolamentare il diritto di voto in un comune diverso da quello della propria residenza. Una proposta sulla buona strada era quella a prima firma Marianna Madia, deputata del Partito Democratico, e supportata dalla campagna Voto Dove Vivo. La proposta prevedeva che nei referendum gli elettori fuorisede potessero votare nel seggio del Comune di domicilio, presentando una domanda in via telematica tramite SPID, con allegato il contratto di lavoro o il certificato d’iscrizione all’università. Nelle elezioni Politiche per Camera e Senato e nelle elezioni per il Parlamento Europeo invece gli elettori fuorisede avrebbero potuto votare per corrispondenza senza spostarsi (come per gli elettori all’estero, ma con il voto conteggiato come nella circoscrizione elettorale di residenza). Infine, il Parlamento avrebbe potuto delegare il Governo ad avviare una sperimentazione di voto elettronico in ottica di sostituzione del voto per corrispondenza.
Ma la proposta, appunto, prevedeva e non prevede più perché, con la caduta del Governo, l’iter di approvazione si è interrotto e dovrà iniziare da capo. Anche questa volta, non voto fuori sede. Per quanto ancora?

Fonte
Fonte


Fonte

Tecnologia del DNA ricombinante

La tecnologia del DNA ricombinante rientra nelle tecniche utilizzate in biologia molecolare e/o genetica molecolare per manipolare molecole di acidi nucleici. Viene frequentemente sovrapposta al concetto generico di ingegneria genetica.

Una delle applicazioni più comuni nell’ambito biotech è l’espressione di proteine ricombinanti; con proteine ricombinanti vanno intese proteine prodotte sfruttando tecniche di ricombinazione del DNA in vitro. Spesso, le proteine ricombinanti hanno delle caratteristiche diverse rispetto a quelle di partenza come, ad esempio, mutazioni che ne incrementano o riducono l’attività; chiaramente esistono varie tipologie di proteine ricombinanti in relazione ai diversi tipi di obiettivi dei progetti di ricerca.

L’urbanistica rinascimentale: Ferrara tra classicità e innovazione

Con l’articolo di oggi, vogliamo fornirvi un approfondimento sulla conformazione di una città rinascimentale che rappresenta un caso piuttosto unico nel suo genere: stiamo parlando di Ferrara.
La pianta di Ferrara è stata infatti una dei più famosi esempi di un’operazione massiva di rinnovo cittadino. La città, a partire dal 1492, è stata oggetto di un’importante “addizione”, ovvero di un ampliamento voluto fortemente dal duca Ercole I D’Este.
Prima di parlare del periodo Estense, un po’ di storia;
Ad oggi, non vi sono molte notizie sull’urbanistica originale di Ferrara. Il nome Ferrara pare nato nel Medioevo, certamente quindi posteriore all’epoca romana, che viene spesso identificata come epoca di fondazione. Gli studiosi, in base a ragioni topografiche, etniche, storiche e anche mitologiche, hanno fatto anche l’ipotesi di una nascita di Ferrara con l’origine pelasgica, cioè nata da una popolazione addirittura anteriore a quella greca. I Pelasgi, nome con il quale i greci identificavano i loro avi, l’avrebbero fondata con il nome di Massalia: così verrebbe indicata da Polibio nelle sue Storie.
Alcune cronache sostengono che qui più tardi i Romani avrebbero istituito il cosiddetto “Forum Alieni”, una località che, si presume, rappresentasse il centro cittadino. Tacito fa questo nome citando un luogo al di là di un fiume, a sud di Padova ed Este. Il fiume in questione fu attraversato dall’esercito di Vitellio, nel 69 d.C., con l’intenzione di fermare l’avanzata delle legioni di Vespasiano provenienti dall’Illiria e dalla Dalmazia. Ci sono molte dispute sulla veridicità di questa ipotesi come prima collocazione della città.
È comunque certo che vi era una colonia romana in corrispondenza dei villaggi vicini di Voghenza e Voghiera; si pensa che l’ascesa di un’altra colonia potente abbia ostacolato la crescita di Voghenza, favorendo invece lo sviluppo di un ipotetico embrione di Ferrara, che si trovava in una posizione decisamente vantaggiosa, ossia più nell’entroterra ma alla punta San Giorgio, la prima e più antica biforcazione del Po. Voghenza anche in seguito rimase una cellula importante di Ferrara, e vi si collocarono anche alcuni possedimenti degli Este, per esempio la loro residenza in campagna, la Delizia di Belriguardo.
Adesso, un rapido salto in avanti; all’epoca in cui Ercole I sale al governo, ossia alla morte del fratello Borso d’Este nel 1471. Ferrara è una città di impianto medievale, e la famosa Certosa e le “delizie”, ville delle famiglie nobili con cortili interni e ricchi giardini, sono lontane e fuori dalle mura. L’ordine di pianta conserva ancora la disposizione dei cosiddetti “cardine “e “decumano”, che conducono ai bastioni principali e alle porte della città. Ferrara è reduce da un’amministrazione che da secoli deve tener conto della protezione territoriale e delle campagne belliche.
Il ducato si trovava contrapposto alla temutissima e potentissima Repubblica di Venezia, con la quale la pace era difficile da mantenere per ragioni di spartizione territoriale. Venezia aveva interessi che si scontravano con le possessioni ferraresi, e i conflitti furono evitati grazie ai buoni rapporti che Borso d’Este seppe mantenere fino a un inevitabile tracollo. Con la guerra di Ferrara, si rimettono in gioco i poteri legati alla Congiura dei Pazzi: il papato, il regno di Napoli e i vari ducati del nord, tra cui quello di Mantova e di Milano, retto da Ludovico il Moro, il quale giocherà un ruolo importante e controverso nella stipulazione dei trattati di pace. Dopo il conflitto, il duca Ercole I gli darà in sposa una delle sue due figlie, e farà delle alleanze matrimoniali uno strumento di pace importante. Una volta duca, lui stesso si sposa con Eleonora d’Aragona, figlia del re di Napoli, e per il secondo matrimonio di suo figlio sceglie Lucrezia Borgia, figlia del papa Alessandro VI.
E’ ben noto che all’epoca del ducato di Ercole, Ferrara non è estranea alla vita culturale.
Borso d’Este fu un duca illuminato in molti aspetti: a lui vanno i meriti di aver coltivato una scuola pittorica molto celebre alla corte ferrarese, di cui sono protagonisti il Cossa, Ercole de’ Roberti e Cosmè Tura. Inoltre, fu proprio lui a creare un primo ampliamento della pianta cittadina. Era interessato alle arti e ne capiva l’importanza, ma le finanze che era disposto ad elargire in questo ambito erano contenute. Borso era un uomo d’azione, amante della caccia e della guerra, e forse usava il mecenatismo più come un accessorio che come una risorsa.
Suo fratello Ercole era ben diverso; non fu una figura politica particolarmente brillante, ma aveva un’educazione estremamente colta, e si ritrovò nella fortunata situazione di poter mantenere uno stato piccolo ma solido, già rinomato per le figure artistiche che vi avevano dimorato.
Ercole decise di dare una nuova veste alla città, per renderla degna di un duca al passo coi tempi e per creare un’impronta che potesse rimanere nei secoli a venire. Per attuare il progetto, si affidò all’architetto Biagio Rossetti, nominato ingegnere di corte dopo la dipartita del precedente architetto ducale, Pietro Benvenuti dagli Ordini, che gli aveva fatto da maestro.
Rossetti progetta una città bella e soprattutto funzionale.
Il piano, estremamente avveniristico, prevede un raddoppio della superficie cittadina, e implementa un’integrazione importante del tratto che collega il Castello Estense alla Certosa. La nuova sezione della città è verdeggiante, e viene inglobata nelle mura cittadine come una sorta di Central Park in piccolo, con l’intenzione di servirsi del terreno per rifornire la corte e i cittadini dei prodotti delle colture senza dover uscire dai bastioni.
L’odierna Piazza Ariostea, poco lontana dalla Certosa, era destinata a diventare il fulcro dell’addizione di Ercole, e fu denominata Piazza Nuova, proprio per contrapporla all’antica piazza del mercato, sul lato meridionale della Cattedrale. Non acquistò però mai importanza per i commerci, ma rimase una grande area libera da costruzioni, con funzione di parco pubblico.
Sulle direttrici (Corso Ercole I d’Este e Corso Porta a Mare) sono posizionati i palazzi istituzionali e le residenze signorili, anch’essi rimodernati o costruiti ex-novo. Uno su tutti, Palazzo dei Diamanti, costruito per il fratello di Ercole, Sigismondo, caratterizzato dalla decorazione di facciata con fasce di punte di diamante in bugnato marmoreo, che giocano con luci e ombre creando bellissimi effetti ottici.
Non solo: proprio come per Palazzo Medici Riccardi a Firenze situato in via Larga (oggi via Cavour), il Castello Estense e i palazzi erano collegati direttamente alle residenze nobiliari in campagna tramite i grandi corsi, che permettevano ai duchi e alle loro famiglie di poter uscire rapidamente dalla città.
Dal Castello Estense si ammira la grandiosità del Corso Ercole I d’Este, fulcro dell’Addizione Rinascimentale. Era anticamente denominato “Via degli Angeli”, dalla chiesa dedicata a S. Maria degli Angeli, che si trovava lungo il suo corso. Costituisce uno dei due assi portanti dell’Addizione Erculea. Privo di esercizi commerciali ed affiancato da bellissimi palazzi, mantiene ad oggi la caratteristica di arteria residenziale che il duca le volle conferire. Il suo punto focale è il Quadrivio degli Angeli, all’incrocio con l’altro asse dell’Addizione (Corso Porta Mare – Corso Biagio Rossetti – Porta Po), sottolineato dalla presenza di tre palazzi riccamente decorati.
L’ampliamento Erculeo fu ostacolato nuovamente dai conflitti con Venezia, ma il lavoro aveva già dato un esempio assolutamente originale di architettura che favorisse la popolazione, che potesse rendere vivibile una città oltre che piacevole alla vista.
Del resto, Rossetti si ispirò al Re Aedificatoria di Leon Battista Alberti per la progettazione della nuova Ferrara, tenendo conto dei suoi grandi concetti di durevolezza, utilità e bellezza (“firmitas, utilitas, venustas”) che avevano già conquistato Firenze e Venezia. Peraltro, il famosissimo trattato edilizio dell’Alberti era stato commissionato da Leonello d’Este, già duca di Ferrara e fratellastro di Ercole, ed è il primo trattato di teoria dell’architettura della storia moderna.
Per il suo lavoro Biagio Rossetti viene considerato il primo urbanista d’Europa, ed è proprio nella visione Erculea di città ideale che alcuni dei più grandi artisti di tutti i tempi hanno trovato il loro spazio, dai celeberrimi Cossa e Tura a De Chirico e Mantovani.

Link da citare:
https://gallica.bnf.fr/ark:/12148/btv1b53028075q/f1.zoom
Link treccani
https://www.ferraraterraeacqua.it/it/scopri-il-territorio/itinerari-e-visite/itinerari-storici-culturali/l
a-citta-di-ercole-i-deste

Elisa, Caterina, Giuditta

In Libia ci sono nuovi disordini mentre il parlamento brucia

Manifestanti danno fuoco all’edificio del parlamento libico dopo le proteste contro il fallimento del governo a Tobruk, in Libia, il 1 luglio.
Immagine di picture alliance / REUTERS | Stringer ©

La sera del 1° luglio 2022, pochi giorni dopo la scadenza dei 18 mesi previsti dalle Nazioni Unite per le elezioni in Libia, i cittadini del Paese avrebbero dovuto inaugurare un nuovo governo. Invece, l’edificio del Parlamento di Tobruk, una delle città principali della Libia orientale, è bruciato mentre i libici ballavano per festeggiare. Questo non è ciò che prevedeva la roadmap delle Nazioni Unite, ma molti osservatori che hanno familiarità con il piano hanno sempre suggerito che sarebbe andata in questo modo. Simili manifestazioni hanno poi avuto luogo anche in altre città libiche con lo stesso copione: cittadini comuni, esausti e arrabbiati per l’instabilità economica e politica iniziata dopo la rivoluzione del 2011 (la caduta del regime dittatoriale di Gheddafi) che si è amplificata con l’aggravarsi delle ultime dinamiche globali tra cui Covid-19, emergenza climatica e aggressione russa contro l’Ucraina.

Quale è la situazione politica attuale? In Libia non esiste un governo, esistono i governi, due per l’esattezza. Uno istituito a marzo 2021 col supporto delle Nazioni Unite e con sede a Tripoli, nato come governo di transizione con a capo il primo ministro Abdelhamid Dbeibah che avrebbe dovuto portare il paese a elezioni il dicembre 2021, elezioni che non si sono però ancora tenute. Il governo parallelo invece ha sede a Tobruk, città nell’est del paese, e guidato da Fathi Bashagha, il premier designato dal Parlamento libico. Bashagha è l’ex ministro degli Interni nel governo riconosciuto dall’ONU e ora è invece fortemente sostenuto dal maresciallo Khalifa Haftar, capo della Libyan National Army (LNA). Due governi che spaccano un paese in due, faticando quindi a dare un governo stabile e democratico ai cittadini libici. Ma se la stabilità politica non è buona, l’economia non se la passa meglio. E questo peggiora la situazione economica del paese tanto che nel 2021 il report di ReliefWeb per l’OCHA (Ufficio delle Nazioni Unite per gli affari umanitari) calcolava per la Libia, a partire dal 2011, una perdita economica potenziale per pari a circa 160 miliardi di euro.  

Recentemente la situazione economica è peggiorata con la chiusura degli impianti petroliferi nell’Est del paese da parte dei sostenitori del governo di Bashagha nel tentativo di fare pressione sul governo di Dbeibah affinché si dimetta. Un danno di circa 60 milioni di dollari al giorno e una produzione che registra un -85% rispetto al periodo precedente. La mancanza di entrate per un paese fortemente dipendente da queste risorse naturali ha portato, secondo l’ONU, oltre 800mila persone ad aver bisogno di assistenza umanitaria.

Ma ci sono tante altre persone, oltre ai cittadini, che stanno subendo gravemente questa assenza di governo e di responsabilità politica: i migranti. Provenienti da oltre 40 paesi e detenuti in veri e propri lager dove migliaia di persone vivono in condizioni disumane mentre aspettano che le milizie, l’Unione Europea e le Nazioni Unite decidano il loro destino. Ufficialmente amministrati dal governo libico, in realtà sono le milizie a controllarli, torturarli e a sfruttarli come fonte di guadagno certa. La Libia è ancora un caldo inferno, politico, economico e umanitario, in cerca di una rotta verso la salvezza.  

Fonte
Fonte
Fonte

Batteri per produrre carburante per l’aviazione

Photo by Edward Jenner on Pexels.com

Per carburanti per l’aviazione si intende tutta quella serie di prodotti, derivanti dalla distillazione frazionata del petrolio, utilizzati per alimentare i velivoli. Il carburante o il componente maggiormente utilizzato per questo scopo al momento è il cherosene che come tutti i prodotti di natura fossile è destinato a scarseggiare sempre di più fino ad esaurirsi completamente; ed è per questo che, come avrete spesso sentito, è molto importante riuscire a trovare delle sostanze alternative che siano il più efficienti e il più sostenibili possibile.

Proprio riguardo a questo argomento il 30 Giugno di quest’anno è uscito sulla rivista Joule un articolo scritto dai ricercatori del Lawrence Berkeley Lab dove si può leggere di un metodo per produrre un carburante alternativo per l’aviazione attraverso l’ottenimento di una molecola molto singolare prodotta dal metabolismo di batteri che si trovano comunemente sul suolo.

Ma partiamo dalle basi ponendoci una domanda- Che caratteristiche deve avere una molecola per essere utilizzata come carburante ?

Bhè prima di tutto è necessario che questa abbia una temperatura di innesco della combustione non proibitiva e in più quando questa inizia è importante liberi più energia possibile. Energia che verrà poi convertita in movimento (più precisamente in energia meccanica) dal motore .

Entrando invece nello specifico la molecola studiata dagli scienziati del Lawrence Berkeley Lab è una sostanza chiamata Jawsamycin (probabilmente Jawsamicina in italiano) in onore al film Jaws (lo Squalo) data la sua singolare struttura che ricorda proprio un’arcata dentale di squalo. Tale molecola viene normalmente prodotta dal metabolismo di batteri chiamati streptomyces demolendo il glucosio e gli amminoacidi assorbiti in frammenti che poi vengono “riassemblati” per formare tramite l’ausilio di determinati enzimi la sostanza in esame.

Ma come mai questa Jawsamycin è così interessante come possibile carburante ?

Come detto prima per essere un buon carburante una sostanza deve liberare una grande quantità di energia quando bruciata e in virtù della sua struttura, per la precisione grazie ai “denti” (ovvero ai ciclopropani) che la compongono, questa molecola è in grado di assolvere a questo ruolo molto efficientemente. Se vi state chiedendo il perché la risposta è la seguente:

In chimica (ma in scienze naturali in generale) quando per generare un sistema è necessario fornire molta energia ai costituenti, solitamente “rompere” il sistema, ovvero in questo caso la molecola, libera molta energia a sua volta. Per semplificare molto la comprensione immaginate che i “denti” siano come una sorta di molle compresse che quando rilasciate, grazie alla combustione, liberano l’energia immagazzinata dalla compressione stessa.

Come spiega Pablo Cruz-Morales, l’autore principale dell’articolo, il prodotto ha bisogno di essere trattato per poter raggiungere un’adeguata temperatura di innesco ma una volta partita la combustione questa dovrebbe essere in grado di mandare perfino un razzo nello spazio.

sempre Cruz-Morales, dati i promettenti risultati della ricerca, spera che il suo team insieme ai ricercatori del dipartimento per l’energia siano in grado un giorno di portare il processo su scala industriale in modo che il loro carburante alternativo possa essere utilizzato al più presto per i velivoli e non possiamo che dargli ragione dato che come potete bene immaginare e come accennato a inizio articolo, prima o poi inevitabilmente le risorse fossili finiranno.

Vi lascio come sempre i riferimenti alle fonti utilizzate e all’articolo originale:

  1. https://phys.org/news/2022-06-bacteria-unusual-triangular-molecule-jet.html
  2. Jay D. Keasling, Biosynthesis of polycyclopropanated high energy biofuels, Joule (2022).  DOI: 10.1016/j.joule.2022.05.011www.cell.com/joule/fulltext/S2542-4351(22)00238-0

La NASA investe nella ricerca nucleare per generare energia in ambiente extraterrestre

La produzione di energia sulla superficie lunare o marziana sarà uno dei principali elementi da prendere in considerazione per lo sviluppo e il consolidamento di attività umane nelle missioni di esplorazione e colonizzazione dei prossimi decenni. La NASA si sta già muovendo in tal senso, investendo nella ricerca di un sistema che possa generare sufficiente energia in ambienti ostili, ossia privi delle condizioni tipiche che avremmo sulla Terra.
Recentemente infatti, l’agenzia spaziale americana ha finanziato tre imprese private con 5 milioni di dollari ciascuna per lo sviluppo preliminare di microreattori a fissione nucleare, con l’obiettivo di avere un prototipo funzionante entro la fine del decennio.

La scelta è ricaduta sull’opzione nucleare per vari motivi. Un tale generatore può fornire potenza elettrica in maniera continua, indipendentemente dalle condizioni ambientali, bypassando problemi che si presentano con l’utilizzo di pannelli solari come la necessità di illuminazione, non sempre garantita. Inoltre, i pannelli solari sono soggetti a degradazione e la potenza elettrica erogata diminuirebbe sensibilmente con gli anni a seconda del tipo di esposizione ambientale.

I microreattori quindi sarebbero in grado di fornire 40 kW di potenza elettrica in maniera affidabile e funzionerebbero esattamente come i reattori a fissione nucleare terrestri, con il vantaggio di essere trasportabili, di avere una vita operativa di almeno 10 anni senza ricambio del combustibile e la possibilità di essere integrati con un sistema di pannelli solari di supporto, in modo da differenziare l’utilizzo delle fonti energetiche di una ipotetica futura colonia.

Illustrazione concettuale di un possibile microreattore a fissione nucleare in ambiente lunare. Fonte: NASA

Le aziende individuate per la ricerca sono le seguenti:

  • Lockheed Martin, impresa statunitense attiva nei settori dell’ingegneria aerospaziale e della difesa con sede a Bethesda (Maryland), che svilupperà il progetto in collaborazione con BWXT e Creare.
  • Westinghouse, società statunitense costruttrice di apparecchiature elettriche civili e ferroviarie, che lavorerà al progetto insieme ad Aerojet Rocketdyne.
  • IX of Houston, una joint venture fra Intuitive Machines e X-Energy. L’azienda lavorerà al progetto in collaborazione con Maxar e Boeing.

Le tre imprese hanno firmato un contratto di 12 mesi per lo sviluppo di un design preliminare dei microreattori e allo scadere del termine solo uno verrà scelto come candidato per uno sviluppo più approfondito, così da procedere alla realizzazione di un prototipo adatto al lancio nello spazio.

La ricerca su simili sistemi nucleari contribuirà a un innumerevole serie di missioni di esplorazione e colonizzazione, sostenendo lo sviluppo anche della propulsione nucleare. Il know-how acquisito nel rispettare gli stringenti requisiti dell’ambiente spaziale porterà anche enormi benefici all’industria nucleare terrestre, in quanto le tecnologie spaziali fanno spesso da apripista per innovazioni in molti altri settori tecnologici.

Fonti:
https://www.powermag.com/nasa-picks-three-nuclear-power-concepts-for-demonstration-on-the-moon/
https://www.energy.gov/ne/articles/what-nuclear-microreactor

Prima terapia genica contro l’emofilia A grave

Photo by Martin Lopez on Pexels.com

EMA (European Medicines Agency) ha raccomandato il rilascio all’immissione in commercio di Roctavian (valoctocogene roxaparvovec) per il trattamento dell’emofilia A grave in adulti che non sviluppino inibitori del fattore VIII (autoanticorpi prodotti dal sistema immunitario del paziente che rendono meno efficaci i medicinali a base di fattore VIII) e nessun anticorpo contro il virus AAV5 (vettore adeno-virale con all’interno il gene del fattore VIII).

Ma più nel dettaglio, cosa è l’emofilia A e in cosa consiste la terapia genica con Roctavian?

I pazienti con emofilia A non possono produrre fattore VIII (una proteina essenziale necessaria per la coagulazione del sangue) e, se ad esempio sono sottoposti ad intervento chirurgico o in seguito ad evento traumatico, risultano più inclini ad un sanguinamento prolungato. L’emofilia A è una malattia rara debilitante che colpisce circa 0,7 persone su 10.000 in Europa. Può essere fatale quando si verifica sanguinamento nel cervello, nel midollo spinale o nell’intestino. Le terapie attualmente autorizzate per il trattamento dell’emofilia A sono le cosiddette “protein replacement therapies”: farmaci costituiti principalmente da fattore VIII che vengono somministrati in sostituzione della proteina mancante. I trattamenti ad oggi disponibili richiedono una o più iniezioni periodiche (di solito alla settimana o mensili) e durano tutta la vita.

Roctavian è la prima terapia genica (link di InforPedia “Terapia Genica” -> terapia genica) a trattare l’emofilia A. Il principio attivo di Roctavian, valoctocogene roxaparvovec, si basa su un virus adeno-associato AAV che è stato modificato per non essere virulento e non creare malattie nei pazienti. Il virus (link di InforPedia “Virus” -> virus) contiene il gene per il fattore VIII; una volta somministrato a un paziente come infusione una tantum, il virus “porta” il gene del fattore VIII nelle cellule del fegato, consentendo loro di produrre il fattore VIII mancante. Questo aiuterà il sangue a coagulare più facilmente, a prevenire e/o ridurre gli episodi di sanguinamento. Non è ancora noto per quanto tempo durerà l’effetto del trattamento da questa singola infusione in un singolo paziente.

La raccomandazione di EMA riguardo la terapia genica con Roctavian si basa sui risultati di uno studio non randomizzato di fase 3 (studio principale) su 134 pazienti di sesso maschile con emofilia A senza una storia di inibitore del fattore VIII e senza anticorpi preesistenti contro AAV5. Due anni dopo la somministrazione, i dati di efficacia hanno mostrato che la terapia ha aumentato significativamente i livelli di attività del fattore VIII nella maggior parte dei pazienti. I tassi di sanguinamento sono stati ridotti dell’85% e la maggior parte dei pazienti (128) non ha più avuto bisogno della terapia sostitutiva con fattore VIII. Con Roctavian è stata riportata epatotossicità (danno epatico), un effetto indesiderato comune dovuto alla reazione immunitaria indotta da queste terapie geniche basate su AAV e caratterizzata finora da un aumento dei livelli di un enzima epatico chiamato ALT, alanina aminotransferasi (l’epatotossicità potrebbe essere trattata con successo con corticosteroidi). Altri effetti collaterali comuni includono mal di testa, dolori articolari e nausea.

La raccomandazione all’autorizzazione in commercio è stato promosso dal PRIority MEdicines (PRIME), un programma di EMA che, fornendo un solido supporto scientifico e normativo, accelera lo sviluppo di farmaci innovativi e salvavita dai quali i pazienti potrebbero trarre immediati benefici. Nella valutazione dei dati disponibili, il Comitato per le Terapie Avanzate (CAT), il comitato di esperti dell’EMA per i medicinali a base cellulare e genetica, ha rilevato che i benefici di Roctavian superavano i possibili rischi nei pazienti con emofilia A. Il CHMP, il Comitato per i Medicinali Umani dell’EMA, ha concordato con il Comitato per le Terapie Avanzate CAT e ha raccomandato l’approvazione di questo medicinale.

Il parere sarà ora trasmesso alla Commissione Europea, la quale dovrà decidere se procedere con l’autorizzazione all’immissione in commercio a livello dell’UE. Una volta rilasciata l’autorizzazione all’immissione in commercio, le decisioni in merito al prezzo e al rimborso avranno luogo a livello di ciascuno Stato membro, tenendo conto del ruolo o dell’uso potenziale di questo medicinale nel contesto del sistema sanitario nazionale di tale paese.

Fonte: EMA (European Medicines Agency)

Link

FINTECH

Il termine FinTech indica l’innovazione finanziaria resa possibile dall’innovazione tecnologica, che può comportare la creazione di nuovi modelli di business, processi, prodotti o operatori di mercato. I cambiamenti in atto nei mercati dei servizi finanziari, guidati dalla tecnologia, hanno una portata politico-strategica ben più profonda e vasta di un mero ridisegno di strutture economiche specialistiche (mercati e intermediari finanziari, in primis). Oggi la tecnofinanza conta più di 1.500 startup in tutto il mondo le quali erogano servizi sostanzialmente simili a quelli della finanza tradizionale. La vera novità della Fintech, però, va ben oltre la semplice conversione online della tradizionale offerta bancaria, in quanto è rappresentata dalla creazione e gestione delle valute elettroniche come, per esempio, il Bitcoin e a tutta la rete Blockchain.

Fonti: CONSOB, Wall Street Journal Italia

Trìttico

La parola “trìttico” deriva dal greco antico che significa “triplice, piegato in tre”. Nella Roma antica, e in Grecia, era un elemento scrittorio usato per note e appunti, composto da tre tavolette, per lo più di legno e d’avorio, articolate mediante cerniera e ripiegabili l’una sull’altra.
Questo concetto con il passare del tempo si è allargato andando a toccare altri tipi di campi, come ad esempio nella storia dell’arte, che va ad indicare un’opera pittorica o scultorea divisa in tre parti, che possono essere congiunte tramite delle cerniere laterali o da un piedistallo detto predella.
L’opera pittorica può essere completata da una parte soprastante detta cimasa.
In epoca Medievale questa opera pittorica veniva utilizzata nelle chiese in particolare sull’altare dove troviamo rappresentate scene tipicamente evangeliche: la Madonna in trono insieme al Bambino (celebri sono quelli di Masaccio), la Natività (trittico di Portinari).
Il trittico diventa tanto l’opera divisa in tre parti quanto un insieme di tre opere in qualche modo collegate.

Caterina, Giuditta, Elisa.

Schermi al DNA

Parto chiedendo subito scusa per il titolo perché ciò di cui parleremo fa si uso di DNA ma non è né il solo componente né il principale utilizzato per mettere insieme questo simpatico componente tecnologico che, in accordo con l’argomento, potrebbe trovare applicazione nella produzione di pixel per schermi.

Lo studio in questione, portato avanti dalla collaborazione dei gruppi di ricerca di Anton Kuzyk e Juho Pokki dell’Università di Aalto, vede l’utilizzo di nanoparticelle d’oro (per la precisione nanocilindri) ,ricoperte di particolari molecole di DNA, sospese in un gel, per la produzione di un sistema in grado si sfruttare la particolare caratteristica dei nanocilindri di riuscire a selezionare le lunghezze d’onda trasmesse (o più semplicemente parlando di riuscire a cambiare il colore della luce che arriva ai nostri occhi) in base alla loro orientazione all’interno del gel stesso quando illuminate da luce polarizzata.

Quindi come preannunciato all’inizio dell’articolo il DNA non è l’ingrediente principale, o meglio non è lui il vero responsabile della produzione del colore, anche se il suo ruolo è piuttosto cruciale. Difatti sono le molecole di DNA ad essere responsabili dell’orientazione delle nanoparticelle all’interno del gel e che quindi permettono di sfruttare quest’ultime per produrre vari colori in base alle condizioni. Ma di quali condizioni stiamo parlando ?

Essenzialmente di temperatura.

Dovete sapere che le molecole di DNA ad una certa temperatura (detta temperatura di melting) vanno incontro ad un processo noto come denaturazione nel quale i due filamenti che lo compongono si separano; una volta che la temperatura ritorna a valori più bassi della temperatura di meeting i due filamenti si riaccoppiano ritornando allo stato di partenza.

Questa proprietà è stata abilmente sfruttata dagli scienziati di Aalto perché come potete immaginare questo cambiamento nella struttura del DNA che ricopre le particelle provoca anche variazioni nella loro orientazione all’interno del gel (e quindi il colore visto), variazioni che sono tra l’altro reversibili e quindi più facilmente “controllabili”. In più sono le nanoparticelle stesse che, liberando calore per effetto dell’illuminazione, agiscono da agente riscaldante rendendo il sistema completamente autonomo da altra componentistica per svolgere questo compito.

Il team di ricerca ha sviluppato vari tipi di DNA con diverse temperature di melting per capire quali siano le molecole che producono i risultati migliori. Per il momento pare che i ricercatori siano stati in grado di produrre “solo” luce rossa e verde con questo sistema e quindi mancherebbe ancora il blu all’appello per poter pensare ad una possibile applicazione nel campo degli schermi.

Arrivati a questo punto comunque non penso che il team si fermerà e sicuramente continuerà a lavorare su questo progetto per portarlo il più avanti possibile e se anche mi sbagliassi è certo che hanno posto le basi per lo sviluppo di sistemi piuttosto interessanti e sono certo che in ogni caso la comunità scientifica in generale in un qualche modo le sfrutterà.

Come sempre vi lascio in calce tutti i riferimenti utilizzati per la produzione di questo articolo nonché il link all’articolo originale riguardante lo studio analizzato:

  1. https://phys.org/news/2022-06-gold-nanoparticles-custom-dna-molecules.html
  2. Joonas Ryssy et al, DNA‐Engineered Hydrogels with Light‐Adaptive Plasmonic Responses, Advanced Functional Materials (2022).  DOI: 10.1002/adfm.202201249

Parole per TAGs: Schermi, Display, Nanotecnologia, DNA

Prendersi cura: il legame di attaccamento

Negli ultimi decenni è cambiata la concezione del bambino grazie anche ai contributi dell’Infant Research,
prospettiva teorico-empirica che ha individuato competenze comunicative e sociali già nel neonato,
attribuendogli una precoce motivazione a stabilire relazioni e a ricercare una reciprocità nel rapporto con
l’altro, in particolare con i caregivers (genitori o persone che se ne prendono cura). Rinnovata importanza
quindi è stata attribuita ai primi periodi di vita del bambino e alle prime relazioni che incideranno poi su tutto
il percorso di crescita e sull’età adulta.
Un concetto fondamentale è quello di competenza di
cura. La competenza di cura è il risultato di un processo
lento e graduale che si attiva dall’infanzia e si sviluppa
lungo l’intero arco di vita dell’individuo, intersecandosi
col ciclo di vita della famiglia di origine e di quella
generata. Questo percorso interagisce inoltre col ciclo
evolutivo dell’attaccamento, dove Bowlby, medico,
psicologo e psicanalista britannico, definisce il legame
di attaccamento come la predisposizione del neonato
a stabilire appunto un legame preferenziale con le
figure che si occupano di lui (caregivers) aggiungendo che affinchè si stabilisca un legame di attaccamento
occorrono interazioni costanti e protratte.
La competenza di cura trae origine dalle prime esperienze di accudimento, positive o negative, che
caratterizzano gli scambi con i primi caregivers e che verranno, eventualmente, più o meno compensate e
riparate da altri successivi incontri significativi. Le prime esperienze verranno a costituire un bagaglio di
modelli di accudimento, ovvero di “modi in cui ci si prende cura” che verranno spesi nel rapporto con i
coetanei e, rielaborati e adattati, nel legame simmetrico col partner. Nel passaggio alla genitorialità tale
bagaglio di modelli di accudimento verrà inoltre utilizzato dal soggetto negli scambi col proprio figlio o figlia.
Così è spiegato come le prime relazioni, il modo in cui si viene accuditi in esse, influenzino tutta la vita della
persona che utilizzerà quel modo di prendersi cura, seppur modificato dalle successive relazioni, con i pari,
con i partner, fino ad utilizzarli con i figli che eventualmente avrà.
Il precoce legame di attaccamento, che solitamente il bambino costruisce con i genitori, rappresenta quindi
l’esperienza primaria alla base del percorso di sviluppo della competenza di cura. Il bambino attraverso le
risposte del caregiver ai suoi bisogni apprende come ci si prende cura di qualcuno, come lo si protegge, gli si
danno norme, lo si aiuta a regolare le emozioni; acquisisce un bagaglio di schemi più o meno adeguati dello
stare con gli altri e del prendersi cura di loro.
Da piccolissimo la relazione è asimmetrica: il bambino riceve cure dal genitore senza fornirne, tuttavia
dispone di una serie di comportamenti innati, come pianto e vocalizzazione, utili a mantenerne la vicinanza
e a richiamarlo; essere “attaccati al caregiver” significa essergli abbastanza vicino e si vedranno qui i
complementari bisogni di esplorazione e di vicinanza del bambino: quando l’ambiente sembrerà sicuro si
allontanerà dal caregiver per esplorare , quando sarà stanco, insicuro, ricercherà la vicinanza.
Ci sono molteplici modalità di attaccamento teorizzate da Mary Ainsworth, che le ha studiate attraverso una
procedura specifica: la Strage Situation. In tale procedura si fa un’osservazione strutturata del
comportamento del bambino tra 12 e 18 mesi focalizzandosi in particolare sulle sue reazioni a momentanee
separazioni dalla madre e al ricongiungimento con essa.
Lo stile di attaccamento è legato alla responsività del genitore, si parla di attaccamento sicuro quando nel
primo anno di vita il bambino ha trovato un caregiver (solitamente si pensa alla madre ma oggi sappiamo che
può trattarsi del padre o di chi si prende cura del bambino) responsivo, coerente, empatico ed è quindi in
grado di esplorare l’ambiente ma anche di tornare a cercare il genitore, sapendo che lo troverà e che saprà
rispondere al suo bisogno.
L’attaccamento sicuro è solo uno dei diversi stili di attaccamento, ci sono diversi stili invece di attaccamento
insicuri ma ci limitiamo adesso a vedere la traiettoria evolutiva e lineare della competenza di cura.
Il bambino con attaccamento sicuro quindi riesce a tollerare e superare brevi separazioni dal caregiver,
mostrandosi poi felice al ricongiungimento; tali schemi relazionali saranno poi utilizzati in adolescenza
quando il ragazzo o la ragazza si emancipano dalla famiglia di origine alla ricerca di legami sostitutivi amicali
e amorosi con i pari in cui la relazione diventa simmetrica: la persona si sperimenta nel duplice ruolo di chi
dà supporto e di chi riceve cure.
Nella relazione amorosa la possibilità di spostarsi in modo flessibile dalla posizione di fruitore di cure a quella
di caregiver consente ai componenti della coppia di essere l’uno per l’altro fonte di rifornimento affettivo e
questa è la base per potersi orientare verso progetti condivisi che possono riguardare la sola coppia o la
possibilità di impegnarsi in una relazione asimmetrica nei confronti di un figlio.

SUBFORNITURA E ABUSO DI POSIZIONE DOMINANTE

La subfornitura è quel contratto con il quale “un imprenditore si impegna a effettuare per conto di una impresa committente lavorazioni su prodotti semilavorati o su materie prime forniti dalla committente medesima, o si impegna a fornire all’impresa prodotti o servizi destinati ad essere incorporati o comunque ad essere utilizzati nell’ambito dell’attività economica del committente o nella produzione di un bene complesso, in conformità a progetti esecutivi, conoscenze tecniche e tecnologiche, modelli o prototipi forniti dall’impresa committente” (art. 1 L. 192/1998).

Tra le varie problematiche legate a tale tipologia di contratto deve essere tenuta in considerazione la possibilità di incorrere in un abuso di posizione dominante.

Difatti, l’art. 9 L. 192/1998 stabilisce, nell’ambito della subfornitura, che “è vietato l’abuso da parte di una o più imprese dello stato di dipendenza economica nel quale si trova, nei suoi o nei loro riguardi, una impresa cliente o fornitrice. Si considera dipendenza economica la situazione in cui una impresa sia in grado di determinare, nei rapporti commerciali con un’altra impresa, un eccessivo squilibrio di diritti e di obblighi. La dipendenza economica è valutata tenendo conto anche della reale possibilità per la parte che abbia subìto l’abuso di reperire sul mercato alternative soddisfacenti.

L’abuso può anche consistere nel rifiuto di vendere o nel rifiuto di comprare, nella imposizione di condizioni contrattuali ingiustificatamente gravose o discriminatorie, nella interruzione arbitraria delle relazioni commerciali in atto”.

In sostanza, è vietato l’abuso da parte della committente dello stato di dipendenza economica nel quale si trovava, nei suoi riguardi, la subfornitrice.

Inoltre, il patto attraverso il quale si realizza l’abuso di dipendenza economica è nullo e il giudice ordinario può inibire tale condotta e condannare l’abusante al risarcimento del danno.

Tuttavia, la Corte di Cassazione (Cass. civ., SS. UU., 25.11.2011, n. 24906) ha esteso l’ambito di applicazione della predetta norma affermando che l’art. 9, L. n. 192/98 “configura una fattispecie di applicazione generale, che può prescindere dall’esistenza di uno specifico rapporto di subfornitura, la quale presuppone, in primo luogo, la situazione di dipendenza economica di un’impresa cliente nei confronti di una sua fornitrice, in secondo luogo, l’abuso che di tale situazione venga fatto, determinandosi un significativo squilibrio di diritti e di obblighi, considerato anzitutto il dato letterale della norma, ove si parla di imprese clienti o fornitrici, con uso del termine cliente che non è presente altrove nel testo della L. n. 192 del 1998”.

Il Tribunale di Roma (16.01.2016) ha precisato che “l’atteggiarsi dei rapporti negoziali, per integrare la fattispecie di controllo esterno, deve generare la traslazione all’esterno della società del poter di direzione dell’attività sociale, ma ciò non si verifica sulla base della sola reiterazione nel tempo di più ordini”.

Ad ogni modo, in generale, la fattispecie dell’abuso di posizione dominante trova la propria principale fonte di regolamentazione nell’art. 102 del TFUE in forza del quale è incompatibile con il mercato interno, nella misura in cui possa essere pregiudizievole al commercio tra Stati membri, lo sfruttamento abusivo da parte di una o più imprese di una posizione dominante sul mercato interno o su una parte sostanziale di questo.

La norma indica quattro ipotesi tipiche di pratiche abusive che possono consistere:

  • nell’imporre direttamente od indirettamente prezzi d’acquisto, di vendita od altre condizioni di transazione non eque;
  • nel limitare la produzione, gli sbocchi o lo sviluppo tecnico a danno dei consumatori;
  • nell’applicare nei rapporti commerciali con gli altri contraenti condizioni dissimili per prestazioni equivalenti, determinando così per questi ultimi uno svantaggio per la concorrenza;
  • nel subordinare la conclusione di contratti all’accettazione da parte degli altri contraenti di prestazioni supplementari, che, per loro natura o secondo gli usi commerciali, non abbiano alcun nesso con l’oggetto dei contratti stessi.

Con l’emanazione della Direttiva n. 2014/104/UE, il legislatore europeo ha introdotto alcune norme ritenute necessarie per garantire la possibilità di proporre una azione risarcitoria da parte di chiunque abbia subito un danno a causa di una violazione del diritto della concorrenza.

Il nostro legislatore ha provveduto a dare attuazione alla direttiva attraverso l’introduzione nel nostro ordinamento del D.lgs.19 gennaio 2017, n. 3 che riconosce appunto il diritto al risarcimento in favore di chiunque abbia subito un danno a causa di una violazione del diritto della concorrenza da parte di un’impresa o di un’associazione di imprese.

Il risarcimento del danno deve comprendere il danno emergente, il lucro cessante oltre agli interessi e non determina sovracompensazioni. Esso è determinato secondo le disposizioni di cui all’art. 1223 c.c., art. 1226 c.c. ed art. 1227 c.c.

Fonte: Altalex; Il Sole 24 Ore; Codice Civile.

LICENZIAMENTO

Il licenziamento è il “provvedimento con il quale un imprenditore fa cessare un lavoratore dall’attività prestata alle sue dipendenze (in un ufficio, un impiego, una fabbrica, un servizio), recedendo dal contratto di lavoro“.

Si distingue tra:

  • licenziamento per giusta causa: ipotesi in cui il licenziamento del dipendente sia fondato su un fatto così grave da non permettere la continuazione del rapporto di lavoro, neanche in via provvisoria;
  • licenziamento per giustificati motivi oggettivi: ipotesi in cui il licenziamento è fondato su unasituazione di difficoltà economica e/o strutturale. In particolare, l’art. 3 della legge 604/1966 lo definisce come quella rescissione del contratto di lavoro che si verifica per “ragioni inerenti all’attività produttiva, all’organizzazione del lavoro e al regolare funzionamento di essa”;
  • licenziamento per giustificati motivi soggettivi: ipotesi relativa ad un comportamento del lavoratore meno grave di quelli relativi al licenziamento per giusta causa che si compie concedendo il preavviso al lavoratore. In particolare, l’art. 3 della legge 604/1966 lo definisce come quella rescissione del contratto di lavoro che si verifica per “un notevole inadempimento degli obblighi contrattuali da parte del prestatore di lavoro”.

Fonte: Enciclopedia Treccani; Legge 604/1966.

I primi passi del telescopio James Webb

Dopo 25 anni di progettazione e più di 10 miliardi di dollari di budget, il telescopio spaziale James Webb (JWST) è stato finalmente lanciato con successo il 25 dicembre 2021 dal lanciatore ESA Ariane 5 a Korou, in Guyana Francese. Fra poche settimane, le procedure di dispiegamento del telescopio saranno completate e gli scienziati riceveranno osservazioni del nostro universo con un livello di nitidezza mai raggiunto prima.

Oltre ad ospitare attrezzatura di ultima generazione, il telescopio James Webb è uno strumento molto versatile, capace di portare a termine investigazioni in diversi ambiti delle scienze astronomiche, cosmologiche ed anche esoplanetarie, riguardanti cioè la ricerca e lo studio di pianeti appartenenti ad altri sistemi stellari, cercando anche tracce che possano suggerire la presenza della vita extraterrestre.

Rendering artistico del telescopio James Webb (NASA GSFC/CIL/Adriana Manrique Gutierrez CC)

Il telescopio è stato collocato in una posizione strategica: trattasi del punto Lagrangiano L2 del sistema Terra-Sole, un luogo individuato dalla soluzione del problema dei tre corpi. Questo punto si trova sull’asse che unisce Terra e Sole, ruotando coerentemente col nostro pianeta intorno alla sua stella. Il vantaggio che si ottiene riguarda la direzione del Sole, che rimane costante per tutta la missione, facilitando il lavoro dello scudo termico nello schermare i raggi solari. Infatti, per funzionare correttamente, il telescopio deve essere mantenuto a temperature criogeniche, ossia inferiori ai 50 Kelvin (circa -223°C).

Tragitto del telescopio James Webb dal lancio fino al raggiungimento del punto Lagrangiano L2 (NASA)

Nell’immagine riportata sopra è possibile seguire il tragitto del telescopio James Webb dal lancio al raggiungimento del posizionamento finale, i cui punti salienti sono:

  1. 25 Dicembre 2021 : Lancio dal centro spaziale di Kourou, in Guyana Francese;
  2. 28 Dicembre 2021: Inizio del dispiegamento delle prime strutture di sostegno dello scudo termico;
  3. 30-31 Dicembre 2021: I paletti di sostegno dello scudo termico sono estesi nelle varie direzioni, portandosi dietro parte delle superfici isolanti dello scudo;
  4. 3-4 Gennaio 2022: I 5 strati isolanti di Kapton sono messi in tensione, permettendo alla parte in ombra di raggiungere la temperatura operativa di -230°C;
  5. 6 Gennaio 2022: Dispiegamento del radiatore, che puntando verso il freddo del vuoto spaziale, contribuirà a mantenere bassa la temperatura del telescopio;
  6. 7-8 Gennaio 2022: Apertura dei due pannelli costituenti lo specchio primario, fatti di esagoni di berillio ricoperti di oro puro.

Nonostante la piena operatività sia prevista solamente per quest’estate, il telescopio sta già fornendo agli scienziati le prime immagini per scopi di monitoraggio e calibrazione, come quella riportata qua sotto, la prima in assoluto, risalente al 4 febbraio 2022.

La prima immagine mai inviata dal telescopio James Webb, il 4 febbraio 2022 (NASA)

I ricercatori di tutto il mondo aspettano con impazienza l’annuncio NASA dell’operatività del telescopio: ormai si tratta solamente di poche settimane e poi saremo tutti un piccolo passo più vicini a svelare i segreti del cosmo.

Fonti:

https://www.skyatnightmagazine.com/space-missions/james-webb-space-telescope-images/

https://www.jwst.nasa.gov/index.html

I referendum popolari sulla giustizia del 12 giugno

Il 12 giugno, dalle 7 alle 23, la cittadinanza italiana sarà chiamata a esprimersi su cinque quesiti referendari, promossi da Lega e Radicali, che puntano a modificare parte dell’ordinamento del sistema giudiziario italiano

Fac-simile di uno dei quesiti che saranno sottoposti al voto popolare il 12 giugno 2022

Partiamo dai quesiti: sono cinque, sono lunghi e sono abrogativi, cioè servono per abrogare (abolire) del tutto o in parte il testo di una legge, e sono soprattutto quesiti tecnici (i testi integrali sono consultabili qui). Affinché l’esito del voto per ogni singolo quesito sia valido, secondo quanto richiede la Costituzione, è necessario prima di tutto che si raggiunga il quorum – cioè devono aver partecipato al voto almeno la metà + 1 degli aventi diritto al voto – e, affinché la norma sia abrogata, la maggioranza dei voti validi deve essere per il “sì”.

Primo quesito: abrogazione della legge Severino
In base alla legge Severino (che prende il nome dalla già Ministra della Giustizia Paola Severino), non possono essere candidati o decadono dalla carica di deputato, senatore o parlamentare europeo le persone condannate in via definitiva per reati particolarmente gravi, come mafia o terrorismo; per reati contro la pubblica amministrazione, come peculato, corruzione o concussione; e per delitti non colposi per i quali sia prevista la pena della reclusione non inferiore a quattro anni. In particolare, soltanto per gli amministratori locali (come i sindaci), la legge prevede, per la durata massima di un anno e sei mesi, la sospensione del mandato anche in caso di condanna non definitiva.
Sebbene sia quest’ultima particolarità e disparità di trattamento ad aver portato alla volontà di abrogare la norma, il quesito così com’è stato pensato porterebbe ad una abrogazione totale della legge Severino e, quindi, anche i condannati in via definitiva potrebbero candidarsi o continuare il proprio mandato.

Secondo quesito: imitazione delle misure cautelari
Le misure cautelari sono le azioni preventive che un giudice può disporre su richiesta del pubblico ministero verso un individuo non ancora condannato in via definitiva allo scopo di prevenire esiti negativi dalla mancata azione. Gli arresti domiciliari e la custodia cautelare in carcere sono esempi di misure cautelari.
Se la modifica proposta dal quesito venisse approvata, un giudice potrebbe disporre la misura cautelare solo se ritenesse concreto e attuale il pericolo che l’indagato commetta reati “con uso di armi o di altri mezzi di violenza personale o diretti contro l’ordine costituzionale ovvero delitti di criminalità organizzata” mentre non sarebbe più valida una misura cautelare, per reati meno gravi, con la motivazione del pericolo di reiterazione (ripetizione) del reato “della stessa specie di quello per cui si procede”.
È da notare che l’articolo 274 del codice penale, ad oggi, stabilisce già dei limiti all’applicazione delle misure cautelari per il caso che il quesito del referendum chiede di abrogare. Infatti vi si specifica che la custodia cautelare per pericolo di reiterazione può essere disposta solo in caso di crimini che prevedano la pena di una reclusione di quattro o più anni oppure di 5 o più anni per la custodia in carcere.  

Terzo quesito: separazione delle carriere dei magistrati
I magistrati (i funzionari pubblici investiti di poteri giudiziari) si dividono in giudicanti e requirenti: i giudicanti sono giudici mentre i requirenti sono pubblici ministeri. Le cariche possono essere assunte in modo intercambiabile fino ad un massimo di quattro volte nell’arco della carriera lavorativa dell’individuo e questo cambio di carriera è ciò che il quesito punta a cancellare stabilendo che il passaggio da una funzione all’altra non sia possibile. Da notare che anche la riforma del Consiglio superiore della magistratura (Csm), ora in discussione in Commissione Giustizia al Senato dopo la già avvenuta approvazione alla Camera, stabilisce che il passaggio dalle funzioni di giudice a quelle di requirente possa essere chiesto dai magistrati solo una volta nel corso della propria carriera.

Quarto quesito: valutazione della professionalità dei magistrati
Ogni quattro anni i magistrati sono valutati per il loro operato riguardo la professionalità con una scala di giudizio dal “positiva” al “non positiva” e infine “negativa” espressa su una serie di parametri. Queste valutazioni sono compito dei consigli giudiziari, organi del Consiglio superiore della magistratura composti da membri “togati” (magistrati eletti sul territorio, presidente della Corte d’appello e procuratore generale) e “laici” (avvocati e professori universitari), solo i membri togati però hanno il diritto di valutare attivamente i magistrati. Questa particolarità è ciò che il quesito referendario punta a modificare, rendendo tutti i componenti dei consigli giudiziari partecipanti attivi alla valutazione dei magistrati. Come il quesito precedente, anche questo si intreccia con la riforma del Csm in corso d’opera che cambierebbe il sistema ora in vigore con la creazione di un fascicolo di valutazione che raccolga i dati sulle attività di ogni singolo magistrato.

Quinto quesito: la raccolta firme per candidarsi al Consiglio superiore della magistratura
Attualmente, per potersi candidare al Csm, i magistrati interessati devono presentare una candidatura sottoscritta da un minimo di 25 e un massimo di 50 raccolte tra altri magistrati. Il quesito referendario richiede di abolire questa raccolta e di tornare alla situazione del 1958 quando ogni singolo magistrato interessato presentava la propria candidatura in autonomia. L’obiettivo, in questo caso, sarebbe la riduzione del peso delle “correnti” politiche interne alla magistratura nella presentazione delle candidature. Va però sottolineato che la forza delle “correnti” non sarebbe certo influenzata con questo espediente in quanto le votazioni andrebbero comunque in favore dei candidati rappresentanti di una corrente o di un’altra. D’altronde è la stessa Costituzione a riconoscere la libertà di associarsi in “partiti”, che svolgono una funzione di necessaria mediazione e, nella magistratura, questa funzione di mediazione era e continuerà ad essere svolta dalle “correnti”.

Le creme solari proteggono la salute dell’uomo ma preoccupano per quella dei coralli

Le barriere coralline – famose per la loro bellezza – rappresentano uno degli ecosistemi più produttivi e ricchi di biodiversità al mondo. Svolgono molti ruoli ecologici importanti, supportando una grande varietà di specie di pesci, ma anche di invertebrati e alghe. Le barriere coralline sono però suscettibili a disturbi di vario tipo, sia di origine naturale che antropogenica, sia locali che globali. Negli ultimi anni, ad esempio, si è osservato un generale declino nell’estensione dei coralli causato dai cambiamenti climatici e dall’aumento della temperatura nelle acque degli oceani.

Immagini gratis di Pesce

A livello locale, invece, a preoccupare particolarmente sono gli effetti determinati da prodotti per la cura personale, soprattutto le creme solari – per il loro ampio utilizzo e la loro pseudo-persistenza in ambiente marino. L’uso delle creme solari, infatti, parallelamente al turismo nelle zone costiere, continuerà ad aumentare nei prossimi anni. Gran parte dei filtri UV non vengono assorbiti dalla pelle, di conseguenza un bagno in mare dopo l’applicazione di questi prodotti ne determina il rilascio di residui. La porzione dei filtri UV assorbita viene escreta con le urine, finendo nelle acque di scarico, dove spesso non vengono rimossi in modo efficiente per via delle loro caratteristiche fisico-chimiche.

Sappiamo ancora poco per quanto riguarda la potenziale tossicità di queste sostanze e in letteratura sono presenti pochi studi che ne analizzano i meccanismi di interazione negli organismi marini. Uno studio pubblicato su Science da un gruppo di ricerca dell’Università di Stanford ha recentemente dimostrato come l’ossibenzone, un ingrediente comune nelle creme solari, possa danneggiare i coralli in presenza di luce ultravioletta.

I ricercatori hanno scoperto che gli anemoni di mare, organismi molto simili ai coralli, rendono l’ossibenzone idrosolubile, aggiungendo uno zucchero mediante processi metabolici. Il complesso formato, se esposto a luce ultravioletta, tende a produrre specie reattive dell’ossigeno che sono in grado di danneggiare e uccidere i coralli. L’esperimento è stato effettuato in un ambiente marino simulato e i risultati hanno evidenziato come la presenza di luce ultravioletta sia la discriminante che determina gli effetti tossici dell’ossibenzone. Inoltre, gli anemoni con presenza di alghe simbionti sono sopravvissuti per un periodo di tempo maggiore, in quanto l’ossibenzone si accumula preferibilmente nelle cellule delle alghe, che svolgono quindi una funzione protettiva. Questo dato preoccupa particolarmente in quanto l’aumento delle temperature degli oceani determina il fenomeno dello sbiancamento dei coralli per la perdita delle alghe simbionti, rendendo i coralli più sensibili a questi contaminanti locali.

Questo dimostra l’importanza dello studio ecotossicologico di composti chimici e dei loro metaboliti in situazioni reali o in simulazioni di esse.

Fonti:

Vuckovic, D., Tinoco, A. I., Ling, L., Renicke, C., Pringle, J. R., & Mitch, W. A. (2022). Conversion of oxybenzone sunscreen to phototoxic glucoside conjugates by sea anemones and corals. Science376(6593), 644-648.

Watkins, Y. S., & Sallach, J. B. (2021). Investigating the exposure and impact of chemical UV filters on coral reef ecosystems: Review and research gap prioritization. Integrated Environmental Assessment and Management17(5), 967-981.

Archeologia e storia dell’arte: due grandi sconosciute

Con questo articolo vogliamo fornire maggiore chiarezza su due discipline che sono viste da molti come distanti dalla loro vita quotidiana: archeologia e storia dell’arte. Queste due discipline fanno parte solo marginalmente dell’immaginario collettivo di molti di noi e spesso sono conosciute solo superficialmente e tramite mezzi d’informazione che possono fraintendere l’essenza della materia. L’archeologia è definita come “la scienza dell’antichità che mira alla ricostruzione delle civiltà antiche attraverso lo studio delle testimonianza materiali, anche mediante il concorso di eventuali fonti scritte e iconografiche”. Il fine ultimo è di ricostruire, principalmente tramite rinvenimenti materiali, gli aspetti culturali, storici, religiosi, sociali e politici delle civiltà oggi scomparse. Per capire la complessità e la vastità dell’archeologia basti dunque pensare alle varie civiltà che erano presenti in tutto il globo nelle varie epoche e agli aspetti intrinsechi di ogni società, spaziando dall’alimentazione alla religiosità, dall’urbanizzazione alla manifattura ceramica. Il denominatore comune teorico tra le varie specializzazioni nelle quali l’archeologia è suddivisa è dato dal fine: la ricostruzione di un contesto antropico (quindi i dinosauri sono esclusi, sono studiati dalla paleontologia che fa parte delle scienze naturali). La metodologia adottata dall’archeogia è comune alle varie specializzazioni ed è finalizzata all’acquisizione metodica e scientifica dei dati, che possono essere ottenuti mediante nuovi scavi o dalla riesamina di dati già esistenti.

Così come l’archeologia, anche la storia dell’arte è una materia ricca di sfumature che molto spesso ci sfuggono. Non dovremmo mai dare per scontata la densità e la complessità di questo ambito, visto che è più facile di quanto si pensi scivolare in similitudini poco calzanti e ignorare le linee di demarcazione tra figure che, pur essendo in continuo dialogo, non sono esclusive: lo storico dell’arte ha un modus operandi che lo accomuna proprio allo studioso di storia, ma non può di certo ignorare, per esempio la parte “artigianale” del fare arte. Lo storico d’arte non è un critico, men che meno un catalogatore; semplicemente, non fornisce un punto di vista sull’opera, a meno che non sia sostenuto da una documentazione accurata e comprovata.

Infatti, per definizione, la storia dell’arte è quella disciplina che si occupa di ricostruire, analizzare e giudicare lo sviluppo, il progresso, l’evoluzione, la successione di tutte le espressioni artistiche nel tempo, dalle origini del mondo fino ad oggi. A partire da questa affermazione, capiremo subito che il campo di interesse della storia dell’arte è davvero vasto, comprendendo non solo le arti che un tempo si consideravano “maggiori”, ossia pittura, scultura e architettura, ma anche le cosiddette “arti minori”, ossia, ceramografia, oreficeria, ebanisteria, arti decorative in genere. Se volessimo pensare ancora più in dettaglio al lavoro dello storico d’arte, capiremo anche che, per rendere possibile questa ricostruzione, egli dovrà adottare un metodo “analitico, filosofico ed estetico oltre che semiotico” – tenendo conto dell’epoca in cui si colloca l’opera oggetto del suo studio e quindi calandosi nel contesto e nel modo di ragionare dell’esecutore.

E’ importante, quindi, sia in archeologia che in storia dell’arte, capire tutto ciò che comporta il processo dell’opera, capire quale fosse il suo iter completo: perché ci si è espressi artisticamente in questo modo? A nome di chi? Quando? Perché, proprio nell’epoca trattata, sono stati scelte certi codici espressivi rispetto ad altri?
In un ciclo completo di scambi, l’arte ci aiuta così a capire la storia, e la storia si addensa di punti di vista, di significati umani che sentiamo più vicini a noi. Del resto, l’uomo fin da quando ha intriso le proprie mani di inchiostro minerale e ha intagliato una punta di roccia per fare uno scalpello, ha sentito una pulsione; il bisogno di esprimersi, di creare.

Elisa Del Santo, Caterina Grassi, Giuditta Versili Olmi

Monkeypox

Il virus del vaiolo delle scimmie (Monkeypox virus, MPXV) appartiene alla famiglia dei Poxviridae, più precisamente al genere degli Orthopoxvirus. Si tratta di un virus a DNA a doppia elica (dsDNA) di circa 197 kilobasi e con un diametro che varia dai 200 ai 250nm, quindi uno dei pochi visibili tramite microscopio elettronico. Il MPXV è tra i virus più antichi del mondo animale ed è stato diagnosticato per la prima volta nell’uomo nel 1970. Il MPXV è responsabile di una zoonosi, ovvero di una malattia trasmessa da animale a uomo, che può diffondersi via uomo-uomo tramite aerosol, fluidi corporei o sangue, lesioni epidermiche o oggetti contaminati. I sintomi più comuni sono: febbre, cefalea, mialgia, pustole e vescicole. Ad oggi esiste un vaccino contro MPXV e sono disponibili strumenti diagnostici, farmaci e terapie per controllarne la diffusione.

IPA (idrocarburi policiclici aromatici)

Per IPA o in inglese PAH si intende quella classe di idrocarburi aromatici la cui struttura è costituita da due o più anelli aromatici, quali il benzene, fusi insieme (come nell’esempio mostrato nella figura di apertura). Essendo idrocarburi non contengono altri tipi di atomi all’infuori di carbonio e idrogeno. Sono composti piuttosto comuni la cui formazione è spesso associata alla non completa combustione di combustibili fossili e materiale organico ( le parti bruciate delle carni arrosto ad esempio contengono questo tipo di composti). Il più semplice degli IPA, il naftalene, è usato tutt’oggi come agente antitarma negli armadi domestici. L’importanza di tali molecole aihmé è dovuta alla loro famigerata tossicità, difatti molti di questi composti sono riconosciuti come agenti cancerogeni, mutageni e teratogeni e in aggiunta grazie alla loro elevata stabilità (quindi difficoltà nell’eliminarli) e liposolubilità (quindi facilità nell’essere assorbiti dagli organismi viventi) sono considerati tra gli inquinanti organici più importanti e subdoli esistenti.

Indice MIB ESG

L’indice MIB®️ ESG è primo indice di sostenibilità (Environmental, Social and Governance) dedicato alle blue-chips italiane che presentano le migliori pratiche ambientali, sociali e di governance. Tale indice è stato elaborato da Euronext, dopo il CAC40 ESG lanciato nel marzo 2021.
L’indice in questione combina la misurazione della performance economica con valutazioni di sostenibilità in linea con i principi del Global Compact dell’ONU. La sua composizione si basa sull’analisi dei criteri ESG da parte dell’agenzia di rating Vigeo la quale valuta le performance ESG degli emittenti.

Andrea Calogero Camilleri 

Nascita: 6 settembre 1925, Porto Empedocle.

Morte: 17 luglio 2019, Rione XIV Borgo, Roma.

Andrea Camilleri non ama definirsi uno scrittore siciliano, ma uno scrittore italiano nato in Sicilia, che conserva la parlata dialettale. È molto amato e seguito dal pubblico e le sue opere sono oggi tradotte nelle principali lingue del mondo. Scomparso di recente, nel luglio del 2019, ha lasciato a memoria di sé una vasta produzione letteraria. I racconti e i romanzi di maggior successo dell’autore siciliano sono quelli che hanno come protagonista il commissario Montalbano, divenuto particolarmente popolare grazie alla fortunata serie televisiva che lo ha visto interpretato da Luca Zingaretti.

L’esordio come scrittore risale al primo dopoguerra, ma i lavori di una certa levatura arrivano verso fine anni Settanta, quando comincia a dedicarvisi in maniera quasi esclusiva. Al 1978 risale, ad esempio, “Il corso delle cose” (scritto nel 1968, ma ritenuto impubblicabile dagli editori) e al 1980 “Un filo di fumo”, in cui compare per la prima volta l’immaginaria Vigata, ambientazione di tutti i racconti gialli di Montalbano. Per quanto riguarda i lavori sul commissario Montalbano, nel 1994, a 69 anni, Camilleri scrive “La forma dell’acqua”. “Il cane di Terracotta”, pubblicato nel 1996, è il secondo romanzo della serie incentrata sulle avventure del commissario Montalbano, seguito da “Il ladro di Merendine”, pubblicato nel medesimo anno (1996) e da “La voce del violino” del 1997.

Camilleri ha dichiarato che la scintilla da cui nasce la sua scrittura è accesa da un fatto, un dettaglio, un dato storico per i romanzi storici, un episodio spesso di cronaca locale, spesso nera, per quasi tutti i Montalbano, lo colpisce in modo particolare e che poi rielabora.

«[…] io non ho una possibilità di invenzione che non abbia riferimento reale. Cioè io non so inventarmi nulla dal nulla. Proprio ho una necessità di partire sempre da qualcosa di già accaduto, letto, sentito dire. Io ho sempre bisogno di un punto di partenza, minimo se vuoi, del fatto accaduto, di qualcosa che è già successo. Guarda, può essere una frase, sulla quale posso anche scrivere un romanzo di duecento pagine, ma bisogna che quella frase sia stata detta […]» (La testa ci fa dire. Dialogo con Andrea Camilleri, Marcello Sorgi, pp. 80-81).

Dunque, lo scrittore per le sue storie ha bisogno di un appiglio reale e ritiene di non essere in grado di inventare ex novo. Possiamo fare qualche esempio: l’intreccio de “La forma dell’acqua”[1] nasce dalla vicenda del notabile di un paese della provincia laziale trovato morto in circostanze scabrose, oppure l’originale idea de “Il cane di Terracotta”[2] è dovuta a uno scambio culturale con alcuni allievi registi egiziani. A Camilleri è sufficiente un solo spunto, che è necessario a far scaturire il fluire della creatività e che in qualche caso può avere addirittura una matrice autobiografica: è lo stesso autore a confessare di essere sopravvissuto a una strage di stampo mafioso, esperienza che riecheggia ne “Il birraio di Preston”[3]. Inoltre, i suoi ritratti dei boss della malavita sono mutuati anche da incontri reali.

L’autore ha dunque la straordinaria capacità di assimilare le più disparate esperienze e l’attitudine a trasformarle in episodi letteralmente plausibili. Tutti i giorni dalle sette alle dieci, poi altre tre ore alla sera è il tempo che passa al computer per costruire i suoi romanzi dopo averli immaginati leggendo le cronache dei giornali o inzuppandosi di realtà nelle strade e nei negozi sotto casa.

La vista dell’autore è peggiorata nel tempo: nel 2005 afferma che, se prima poteva passare 4 o 5 ore a scrivere al pc, allora non resisteva più di 2 ore. Perderà definitivamente la vista nel 2016, all’età di 91 anni e verrà affiancato nel suo lavoro da Valentina Alferj alla quale detterà i suoi libri a partire dal romanzo “L’altro capo del filo” (2016).

Sappiamo che Camilleri si fidava di lei, tanto da averla scelta per la stesura dei suoi racconti. Camilleri si fidava di lei, tanto da ritenere che Valentina fosse l’unica a saper scrivere nella lingua di Montalbano, nonostante le sue origini abruzzesi.

La lingua di Camilleri è un pastiche di lingue e dialetti che comprende italiano, spagnolo, siciliano, genovese. Tra i diversi registri e strati linguistici della sua produzione si possono individuare: dialetti, neologismi, registro ironico, forme di italiano regionale, linguaggio che contamina l’italiano con il vernacolo, slang familiare, italiano ‘maccheronico’, lingua italiana corrente, oscillante tra il parlato quotidiano e un’espressione più attenta lessicalmente, infine forme lingustiche decisamente auliche. Frequente è anche il ricorso, sempre con intento parodistico, al linguaggio burocratico, mentre sporadicamente compaiono lingue straniere.

Il gioco linguistico di Camilleri è il frutto di una scelta istintiva, nata sostanzialmente dalla inadeguatezza della lingua italiana, ritenuta una lingua utile alla comunicazione formale o burocratica, ma priva di efficacia espressiva. Il dialetto, invece, si presenta agli occhi dello scrittore vivo, la vera «lingua madre» nella quale si pensa e si parla nel modo più autentico.

Secondo le dichiarazioni di Camilleri, quel suo linguaggio così peculiare sembra essersi imposto all’autore in modo naturale, per tradizione, per abitudine:

«Quando cercavo una frase o una parola che più si avvicinava a quello che avevo in mente di scrivere la trovavo nel mio dialetto o meglio nel parlato quotidiano di casa mia. Che fare?» (I colori della letteratura. Un’indagine sul caso Camilleri, Simona Demontis, p.27).

Camilleri è diventato negli anni una figura di spicco nel panorama culturale italiano, con frequenti incursioni anche in quello politico: difficile da relegare unicamente all’ambito letterario, è stato anche uno sceneggiatore, regista di televisione, teatro e radio e drammaturgo, con ben 110 regie teatrali, un migliaio di regie radiofoniche e un centinaio di regie televisive, maturando così una capacità di comunicazione che gli ha permesso di rivolgersi a un pubblico dal target diversissimo.

[1] La vicenda si svolge a Vigata nel 1994. Due netturbini trovano uno dei notabili del luogo, l’ingegner Luparello, morto e seminudo dentro una macchina parcheggiata alla mannara, un luogo alla periferia della città, meta di prostitute e spacciatori.

[2] In coda ad un delitto di mafia, se ne trova un altro, più conturbante: due cadaveri di giovani amanti abbracciati, nel doppio fondo di una grotta, sorvegliati da un enorme cane di terracotta, secondo un rituale evidente, ma sconosciuto.

[3] Dove un incendio devasta il teatro e fa anche delle vittime.

Bibliografia e sitografia:

«Due cose mi dispiace non vedere: i colori e mia nipote che cresce», intervista a cura di Teresa Ciabatti, La lettura-Corriere della Sera, n°308, 22 ottobre 2017, al link https://www.corriere.it/la-lettura/19_luglio_17/andrea-camilleri-intervista-di-teresa-ciabatti-446118e4-90f0-11e9-800d-4c08a8e6b4ca.shtml;

Ecco come la penso. Andrea Camilleri, 88 anni, lucido, ma distaccato e senza reticenze, 26 giugno 2013, intervista a Camilleri di Angela Iantosca, Io Acqua e Sapone, al link https://www.ioacquaesapone.it/articolo.php?id=1410 ;

Elogio dell’insularità. Intervista ad Andrea Camilleri, Simona Demontis, «La grotta della vipera», n.88, inverno 1999, p.47;

I colori della letteratura. Un’indagine sul caso Camilleri, Simona Demontis, Milano, Rizzoli, 2001, p. 71;

I tre consigli di Andrea Camilleri, Umberto De Tomi, 27 novembre 2019, video consultabile al link https://vdnews.tv/article/andrea-camilleri-frasi;

Il carico da undici. Le carte di Andrea Camilleri, Gianni Bonina, Barbera Editore, 2007, pp. 330-331

Il traguardo record di Andrea Camilleri: 100 libri, Patrizia Bacci, 1 luglio 2016 al link https://italianoincorso.com/2016/07/01/il-traguardo-record-di-andrea-camilleri-100-libri/.

La gana di contar storie, 15 giugno 2005, rivista Altrove – Storie, n.6, p. 11, recuperabile al link http://www.vigata.org/rassegna_stampa/2005/giu05.shtml. Sito della rivista consultabile tramite Wayback Machine di Internet Archive al link http://web.archive.org/web/20070303102439/http://www.altrovelarivista.it/index.php?n=118&PHPSESSID=056bf5ec6597a8e53ebfb281837fc0e1;

La testa ci fa dire. Dialogo con Andrea Camilleri, Marcello Sorgi, Sellerio editore Palermo, 2000, pp. 80-81;

Scrittura e filologia nell’era digitale, Domenico Fiormonte, Bollati Boringhieri, 2003, pp.71-75.

EPR: extended producer responsibility

Con il D.lgs. 116/2020 (in particolare, v. art. 1, c. 2 e 3), il legislatore italiano, in linea con la Direttiva UE 851/2018, ha riscritto l’art. 178bis D.lgs. 152/2006, che disciplina la responsabilità estesa del produttore, ed ha introdotto l’articolo 178ter D.lgs. 152/2006 relativo ai requisiti generali minimi in materia di responsabilità estesa del produttore.

In particolare, al fine di rafforzare il riutilizzo, la prevenzione, il riciclaggio e il recupero dei rifiuti, con uno o più decreti adottati ai sensi dell’art. 17, c. 3, della L. 400/1988 del Ministro dell’ambiente e della tutela del territorio e del mare, di concerto con il Ministero dello sviluppo economico, sentita la Conferenza unificata, sono istituiti, anche su istanza di parte, regimi di responsabilità estesa del produttore. Con il medesimo decreto sono definiti, per singolo regime di responsabilità estesa del produttore, i requisiti, nel rispetto dell’articolo 178ter, e sono altresì determinate le misure che includono l’accettazione dei prodotti restituiti e dei rifiuti che restano dopo l’utilizzo di tali prodotti e la successiva gestione dei rifiuti, la responsabilità finanziaria per tali attività nonché misure volte ad assicurare che qualsiasi persona fisica o giuridica che professionalmente sviluppi, fabbrichi, trasformi, tratti, venda o importi prodotti (produttore del prodotto) sia soggetto ad una responsabilità estesa del produttore.

Sono fatte salve le discipline di responsabilità estesa del produttore di cui agli articoli 217 e seguenti del Codice dell’ambiente (D.lgs. 152/2006).

La responsabilità estesa del produttore del prodotto è applicabile fatta salva la responsabilità della gestione dei rifiuti di cui all’articolo 188, c. 1, D.lgs. 152/2006 e fatta salva la legislazione esistente concernente flussi di rifiuti e prodotti specifici.

I regimi di responsabilità estesa del produttore istituiti con i decreti di cui sopra prevedono misure appropriate per incoraggiare una progettazione dei prodotti e dei loro componenti volta a ridurne gli impatti ambientali e la produzione di rifiuti durante la produzione e il successivo utilizzo dei prodotti e tesa ad assicurare che il recupero e lo smaltimento dei prodotti che sono diventati rifiuti avvengano secondo i criteri di priorità di cui all’art. 179 D.lgs. 152/2006 e nel rispetto del c. 4 dell’articolo 177 D.lgs. 152/2006.

Tali misure incoraggiano, tra l’altro, lo sviluppo, la produzione e la commercializzazione di prodotti e componenti dei prodotti adatti all’uso multiplo, contenenti materiali riciclati, tecnicamente durevoli e facilmente riparabili e che, dopo essere diventati rifiuti, sono adatti a essere preparati per il riutilizzo e riciclati per favorire la corretta attuazione della gerarchia dei rifiuti. Le misure tengono conto dell’impatto dell’intero ciclo di vita dei prodotti, della gerarchia dei rifiuti e, se del caso, della potenzialità di riciclaggio multiplo.

I decreti di cui sopra devono:

  1. tenere conto della fattibilità tecnica e della praticabilità economica, nonché degli impatti complessivi sanitari, ambientali e sociali, rispettando l’esigenza di assicurare il corretto funzionamento del mercato interno;
  2. disciplinare le eventuali modalità di riutilizzo dei prodotti, nonché di gestione dei rifiuti che ne derivano ed includono l’obbligo di mettere a disposizione del pubblico le informazioni relative alla modalità di riutilizzo e riciclo;
  3. prevedere specifici obblighi per gli aderenti al sistema.

I regimi di responsabilità estesa del produttore devono rispettare i seguenti requisiti:

  1. definizione dei ruoli e delle responsabilità di tutti i pertinenti attori coinvolti nelle diverse filiere di riferimento, compresi i produttori che immettono prodotti sul mercato nazionale, le organizzazioni che attuano, per conto dei produttori di prodotti, gli obblighi derivanti dalla responsabilità estesa di questi ultimi, i gestori pubblici o privati di rifiuti, le autorità locali e, ove applicabile, gli operatori per il riutilizzo e la preparazione per il riutilizzo e le imprese dell’economia sociale;
  2. definizione in linea con la gerarchia dei rifiuti degli obiettivi di gestione dei rifiuti, volti a conseguire almeno gli obiettivi quantitativi rilevanti per il regime di responsabilità estesa del produttore e per il raggiungimento degli obiettivi di cui al presente decreto ed alle direttive 94/62/CE, 2000/53/CE, 2006/66/CE e 2012/19/CE del Parlamento Europeo e del Consiglio, e definiscono, ove opportuno, altri obiettivi quantitativi e/o qualitativi considerati rilevanti per il regime di responsabilità estesa del produttore;
  3. adozione di un sistema di comunicazione delle informazioni relative ai prodotti immessi sul mercato e dei dati sulla raccolta e sul trattamento di rifiuti risultanti da tali prodotti, specificando i flussi dei materiali di rifiuto e di altri dati pertinenti da parte dei produttori;
  4. adempimento degli oneri amministrativi a carico dei produttori e importatori di prodotti, nel rispetto del principio di equità e proporzionalità in relazione alla quota di mercato e indipendentemente dalla loro provenienza;
  5. assicurazione che i produttori del prodotto garantiscano la corretta informazione agli utilizzatori del loro prodotto e ai detentori di rifiuti interessati dai regimi di responsabilità estesa del produttorecirca le misure di prevenzione dei rifiuti, i centri per il riutilizzo e la preparazione per il riutilizzo, i sistemi di ritiro e di raccolta dei rifiuti e la prevenzione della dispersione dei rifiuti nonché le misure per incentivare i detentori di rifiuti a conferire i rifiuti ai sistemi esistenti di raccolta differenziata, in particolare, se del caso, mediante incentivi economici.

I regimi di responsabilità estesa devono assicurare:

  1. una copertura geografica della rete di raccolta dei rifiuti corrispondente alla copertura geografica della distribuzione dei prodotti, senza limitare la raccolta alle aree in cui la raccolta stessa e gestione dei rifiuti sono più proficue e fornendo un’adeguata disponibilità dei sistemi di raccolta dei rifiuti anche nelle zone più svantaggiate;
  2. idonei mezzi finanziari o mezzi finanziari e organizzativi per soddisfare gli obblighi derivanti dalla responsabilità estesa del produttore;
  3. meccanismi adeguati di autosorveglianza supportati da regolari verifiche indipendenti per valutare: (a) la loro gestione finanziaria; (b) la qualità dei dati raccolti e comunicati e delle disposizioni del regolamento (CE) n. 1013/2006;
  4. pubblicità delle informazioni sul conseguimento degli obiettivi di gestione dei rifiuti , e, nel caso di adempimento collettivo degli obblighi in materia di responsabilità estesa del produttore, informazioni altresì su: (a) proprietà e membri; (b) contributi finanziari versati da produttori di prodotti per unità venduta o per tonnellata di prodotto immessa sul mercato; (c) procedura di selezione dei gestori di rifiuti.

Il Ministero dell’ambiente e della tutela del territorio e del mare esercita la funzione di vigilanza e controllo sul rispetto degli obblighi derivanti dalla responsabilità estesa del produttore. Al fine dello svolgimento della funzione di vigilanza e controllo , presso il Ministero dell’ambiente e della tutela del territorio e del mare è istituito il Registro nazionale dei produttori al quale i soggetti sottoposti ad un regime di responsabilità estesa del produttore sono tenuti ad iscriversi secondo le modalità definite con decreto.

Fonti: Il Sole 24 Ore; Codice Civile; rinnovabili.it; ricircola.it.

Terapia genica

L’obiettivo di questa terapia avanzata e di precisione è quella di fornire all’organismo una corretta copia del gene difettoso o un altro gene che possa aggiustarne il difetto: la patologia è trattata direttamente nelle cellule del paziente.

In genere, si usano i cosiddetti vettori virali per inserire il gene terapeutico nelle cellule del paziente. I vettori virali sono virus che, dopo essere stati resi innocui, vengono trasformati in traghettatori del materiale genetico terapeutico.

Fonte: Advances in Biochemical Engineering/Biotechnology

Perché le tempeste solari sono una minaccia per i satelliti

Il Sole libera nello spazio una varietà di particelle elettricamente cariche che costituiscono il cosiddetto vento solare. Questo fenomeno genera un campo magnetico interplanetario che permea la distanza fra il Sole e i vari pianeti del nostro sistema, delimitando il confine delle magnetosfere planetarie, se presenti.

L’interazione descritta dipende dunque dall’intensità dell’attività solare che presenta dei transienti, durante i quali possono verificarsi eventi che impattano sulle caratteristiche di regioni molto prossime alle superfici planetarie, come nel caso dell’atmosfera terrestre che durante i picchi solari può andare incontro a un intenso riscaldamento.

L’energia rilasciata durante le tempeste solari aumenta il numero di particelle che possono potenzialmente colpire la strumentazione di bordo dei satelliti, causando danni talvolta irreversibili a componenti vitali quali gli strumenti di telecomunicazione, o comunque alterandone il funzionamento.

Flare Solare – NASA

Oltre ad avere un effetto diretto sulla strumentazione dei satelliti, queste tempeste possono mettere a rischio le loro missioni anche agendo sull’atmosfera terrestre: il riscaldamento degli strati atmosferici superiori (termosfera) comporta un aumento di densità in regioni con valori tipicamente bassi, andando a distorcere i modelli utilizzati per progettare le orbite dei satelliti con passaggi in bassa orbita terrestre. Dunque, l’aumento di densità comporta una maggior resistenza aerodinamica sui satelliti, degradandone l’orbita più del previsto e in casi estremi causandone il collasso.

Questo è ciò che è accaduto a molti dei satelliti Starlink (vedi articolo al link seguente: link) lanciati nel mese di febbraio: in questa occasione SpaceX ha perso 38 dei 49 satelliti che avrebbero dovuto popolare una costellazione adibita all’internet satellitare, con danni stimati per circa 50 milioni di dollari. L’incidente è stato causato proprio da una tempesta solare, che ha portato all’aumento della resistenza aerodinamica fino al 50% oltre i valori previsti, impedendo inoltre ai vari satelliti di uscire dalla modalità di sicurezza per utilizzare i propri sistemi propulsivi nel tentativo di raggiungere le orbite finali.

Visto il costante aumento della popolazione satellitare che sta caratterizzando l’attuale periodo storico, il monitoraggio delle attività solari sta acquisendo sempre maggior rilevanza, nel tentativo di limitare o prevenire danni dovuti a situazioni simili a quelle delineate. Solo tramite lo sviluppo di tecniche per la previsione di eventi solari sempre più accurate sarà possibile tenere sotto controllo questo fenomeno e garantire la totale sicurezza delle future missioni satellitari.

In Slovenia i liberali e progressisti trionfano alle elezioni nazionali

Il 24 Aprile, mentre in Francia elettrici ed elettori decidevano le sorti del loro paese, anche in un altro Stato si faceva lo stesso e con risultati sorprendenti: in Slovenia il nuovo partito liberale “Movimento Libertà” stravinceva con il 34.5% dei voti.

Robert Golob, leader del neonato partito liberale ‘Movimento per la Libertà’ reagisce dopo aver tenuto un discorso durante la convention pre-elettorale a Lubiana il 19 marzo 2022. (Foto di Jure Makovec / AFP) (Foto di JURE MAKOVEC/AFP via Getty Images)

È passato in sordina, ma in Slovenia ha fatto clamore e ha dato il segnale di un cambio di marcia nella politica slovena. Dopo essere stato governato dal tre volte primo ministro populista e conservatore Janez Janša, il verde stato balcanico è andato al voto – l’affluenza ha raggiunto il 70% degli 1,7 milioni di elettori, molto più alto del 52% delle precedenti elezioni del 2018 – esprimendosi chiaramente per una nuova leadership. Sì perché Robert Golob, presidente del partito Movimento Libertà (in sloveno Gibanje Svoboda, GS) e già in politica dal 1999, si è presentato alle elezioni parlamentari con un programma di stampo ambientalista e liberale che si differenzia sotto molti punti di vista dal programma del Partito Democratico Sloveno, ex partito di maggioranza relativa guidato sin dal 1993 da Janša, e che negli ultimi anni ha subito una deriva sempre più autoritaria.

Secondo l’organizzazione non governativa Freedom House, negli ultimi anni di governo di Janša, la Slovenia ha sperimentato il più forte declino democratico dell’Europa orientale e dell’Asia centrale: se l’ONG ha evidenziato come i diritti politici e le libertà siano stati “generalmente rispettati”, ha comunque affermato che il governo di Janša ha fatto “continui tentativi di minare lo stato di diritto e le istituzioni democratiche, compresi i media e il sistema giudiziario” con misure restrittive riprese da quanto applicato nell’Ungheria di Orbán per l’accesso ai fondi pubblici da parte dei media, accuse infondate alle istituzioni dell’Unione Europea e accuse alla Corte Costituzionale di responsabilità per le morti da coronavirus, dopo che i giudici avevano stabilito che la legislazione Covid-19 del suo governo era incompatibile con la costituzione slovena. Un’altra azione che inquadra il personaggio di Janša è quella di essere stato tra i primi esponenti politici a riconoscere la “vittoria” di Trump alle ultime elezioni presidenziali, vittoria che, però, non è mai esistita poiché il voto ha premiato il candidato avversario Joe Biden, attuale presidente degli Stati Uniti.

Golob, dopo che il suo Movimento è risultato chiaramente vincitore di queste elezioni, ha nuovamente dichiarato che riporterà la “normalità” in Slovenia, dopo che questo “referendum sulla democrazia” ha premiato lui e le sue proposte liberali e green.
Ma il futuro della Slovenia non è già scritto. Secondo l’analista Miha Kovač, il Movimento Libertà non ha un apparato di partito ben consolidato, una solida esperienza politica né una consolidata esperienza di governo. Questi fattori metteranno alla prova il governo di Golob insieme agli alleati, nel frattempo Janša resterà in agguato per cogliere la prima occasioni per riprendersi il potere.

I fattori ESG

L’acronimo ESG si riferisce alle parole Environment, Social and
Governance. In particolare, i fattori ambientali considerano il consumo
energetico e delle risorse naturali, le emissioni di anidride carbonica,
l’inquinamento ed i rifiuti così come le iniziative pro-sostenibilità; inoltre,
essi includono i potenziali rischi ambientali che l’azienda dovrà
fronteggiare e gli effetti dell’introduzione di nuove normative ambientali
sull’attività d’impresa. I fattori sociali considerano tutte le iniziative
aziendali che hanno un impatto sulla comunità, ovvero il rispetto dei diritti
umani e della parità di genere, l’attenzione alle condizioni lavorative, il
rifiuto di ogni forma di discriminazione, la privacy e la sicurezza dei dati,
nonché le iniziative che contribuiscono allo sviluppo del territorio ed al
benessere degli abitanti in cui la società opera. I fattori di governance permettono di valutare le imprese con riferimento al management
(diversità di genere, onorabilità, professionalità, indipendenza ed etica) ed
al sistema di controllo interno e di gestione dei rischi (presenza di comitati
endoconsiliari), all’etica commerciale (codice di condotta) ed alla
trasparenza delle politiche aziendali (retribuzione degli amministratori).

Vaccino contro il tumore al fegato: risultati positivi dai primi test

fonte: hepavac.eu

Dopo uno studio durato ben sette anni, sono usciti i primi risultati della sperimentazione clinica di fase I di HepaVac, il primo vaccino terapeutico che si propone di combattere il cancro al fegato.

Questa tipologia di tumore è la terza causa di morte per motivi oncologici a livello globale; in quest’ottica, questo studio potrebbe aprire nuovi orizzonti terapeutici per la lotta a questa malattia.

Questa innovazione in campo medico acquista maggior importanza, se si considera anche il fatto che attualmente le terapie per combattere il cancro al fegato sono molto limitate.

Inoltre, ad oggi Hepavac può vantare di essere l’unico vaccino di questo tipo attualmente in fase di sperimentazione.

Lo studio, pubblicato sulla rivista americana Clinical Cancer Research,,è stato condotto su 82 pazienti con carcinoma epatocellulare in stadi che andavano da molto precoce a intermedio.

Al presente studio hanno partecipato anche 5 Paesi europei, fra cui l’Italia, dove in particolare i pazienti sono stati arruolati dall’Istituto dei tumori di Napoli e dal Sacro Cuore di Verona.

Degli 82 pazienti presi in esame, 22 sono stati vaccinati con Hepavac. In particolare, il vaccino è stato somministrato solo ai pazienti che non presentavano recidiva della malattia dopo i trattamenti standard di cura attuali.

Dopo sette anni dall’inizio di questo studio (ad ottobre 2018, dopo 3 anni di studi, il primo paziente, proveniente dall’Istituto Pascale di Napoli, veniva vaccinato con Hepavac), i risultati che sono emersi dal punto di vista clinico evidenziano un’importante risposta immunologica da parte dei pazienti vaccinati.

In particolare, la risposta immunologica dei pazienti è stata misurata tramite induzione di cellule T specifiche per gli antigeni vaccinali, e tale risposta è risultata significativa.

In seconda analisi, per valutare la buona riuscita dello studio, sono stati valutati anche parametri immunologici aggiuntivi e presi in esame diversi criteri di sopravvivenza. 

Infatti, lo studio in questione ci da importanti informazioni anche sulla sicurezza di Hepavac: gli effetti collaterali che sono stati osservati sui pazienti vaccinati sono di lieve entità, e a rapida risoluzione.

In conclusione, i risultati attuali sono da considerarsi una prova iniziale per la sicurezza e l’immunogenicità del vaccino. I risultati ottenuti sono incoraggianti, tuttavia sono necessarie ulteriori valutazioni cliniche e un ampliamento della casistica al fine di poter rendere lo studio ancora più robusto e significativo.

Fonte: AACR Journals

Link: https://aacrjournals.org/clincancerres/article-abstract/doi/10.1158/1078-0432.CCR-21-4424/694428/Phase-I-II-multicenter-trial-of-a-novel?redirectedFrom=fulltext

Consiglio d’Europa

Il Consiglio d’Europa invece, nonostante il nome possa confondere, non ha un ruolo istituzionale all’interno dell’Unione Europea e, anzi, ha al suo interno anche Stati che non fanno parte dell’UE ma che sono comunque nel continente europeo per un totale di 46 Stati (la Russia è uscita da poco prima di essere espulsa come conseguenza delle guerra in Ucraina). Esso è un’organizzazione internazionale e tra i suoi obiettivi vi sono la tutela dei diritti dell’uomo, la promozione della democrazia parlamentare e il rispetto del primato del diritto (la “rule of law”). Inoltre, svolge un ruolo attivo nella conclusione di accordi europei per armonizzare le pratiche sociali e giuridiche degli Stati membri.

Fonte: https://www.coe.int/it/web/portal/european-union

Plastiche

In questo articolo analizzeremo le plastiche e utilizzo il plurale e non il singolare perché la plastica non è un materiale o una sostanza unica e ben caratterizzata, bensì una famiglia molto variegata di sostanze organiche prodotte a partire da sostanze derivate dal petrolio o di origine naturale.

Essenzialmente le plastiche sono polimeri ovvero molecole molto grandi formate attraverso una reazione, detta appunto di polimerizzazione, che porta all’unione di una o più molecole di base chiamate monomeri. Per spiegarmi meglio, sperando che con la mia semplificazione non commetta errori, è come se i monomeri fossero i mattoncini di un Lego che incastrati uno dopo l’altro vanno a formare il corpo del polimero.

Capito in generale cosa sia un polimero è bene fare una piccola classificazione per comprendere la vastità dell’insieme che raggruppa tutte le sostanze che fanno parte di questa grande famiglia. I polimeri si possono dividere in base alla loto struttura in:

-Lineari se i monomeri si incastrano uno dopo l’altro a formare una sorta di grande filamento

-Ramificati se di tanto in tanto i monomeri formano catene laterali generando una strutturale ricorda quella di un albero con i vari rami che si protendono in varie direzioni

-Reticolati se la ramificazione è così estrema da poter trovare almeno due strade diverse per collegare due punti qualsiasi della molecola

Oltre a questo si può fare una classificazione in base alla varietà dei monomeri che formano i polimeri, nello specifico abbiamo:

-Omopolimeri se il polimero è sostituito da un solo monomero che si ripete

-Copolimeri se il polimero è formato da due o più monomeri (qui ci sarebbero anche delle sottoclassificazioni che però non menzionerò perché non necessari al nostro scopo)

In più considerando le loro caratteristiche, poteri dire fisiche, si possono suddividere in:

-Termoplastici se per effetto del calore acquistano malleabilità o per maggior chiarezza “fondono” riacquistando successivamente la loro consistenza (tipicamente polimeri lineari o comunque poco ramificati)

-Termoindurenti se per effetto del calore non “fondono” ma si carbonizzano (tipicamente sono polimeri reticolati o comunque molto ramificati)

-Elastomeri se presentano elevata elasticità e deformabilità

Dopo questa classificazione, per evitare fraintendimenti, ci tengo a sottolineare che i polimeri non sono tutte plastiche, queste ultime sono solo una piccola parte del grande mondo dei polimeri di cui fanno parte tantissime sostanze biologiche e non come la cellulosa delle piante, il glicogeno che è il biopolimero utilizzato dagli animali come riserva energetica, le proteine e tante altre ancora; così tante da non bastare una pagina per elencarle tutte .

Tornando alle plastiche queste sono dunque polimeri sintetici e come tali possono variare seguendo le classificazioni spiegate prima, in aggiunta, alla base polimerica, possono essere aggiunte in fase di produzione degli additivi come plasticizzanti, coloranti, antiossidanti e altri per variare le proprietà del materiale in base alle esigenze . Quindi oltre al polimero in se due plastiche costituite dalla stessa molecola di base possono variare per additivi aggiunti.

Fatta quindi una panoramica di base ci tengo ad aggiungere due righe riguardo al riciclo di questi materiali, argomento tanto discusso e che meriterebbe un approfondimento a sé stante. Come si può capire di plastiche ce ne sono tantissime e con tante proprietà chimico-fisiche diverse quindi per un buon riciclo non si può assolutamente pensare di poter prendere le plastiche fonderle insieme e con la miscela ottenuta fare una plastica di riciclo e questo per tre ragioni principali:

  1. Non tutte le plastiche come abbiamo visto possono “rifondersi”, le termoindurenti come abbiamo visto non lo fanno ma anzi si carbonizzano con il calore e già questo pone un limite significativo alla capacità riciclante.
  2. Anche se “rifondibili” per motivi chimico-fisici non tutti i materiali termoplastici sono in grado di miscelarsi adeguatamente alcuni si separano in fasi distinte (come fanno olio e acqua).
  3. Non è assolutamente detto che la miscela formata abbia poi le caratteristiche giuste per poi essere reintrodotta nel mercato.

Per queste ragioni un buon riciclo delle plastiche richiederebbe un controllo accurato di separazione delle varie tipologie di plastica (procedimento che già viene fatto per alcune delle tipologie più comuni di plastica quali PET, PVC, PE) per permettere processi di riciclaggio specifico ma come spiegato prima questo non sempre è possibile; a volte ci dobbiamo accontentare di miscele plastiche (comunque riutilizzate ad esempio per la produzione di panchine) e a volte semplicemente l’unica alternativa è lo smaltimento tramite incenerimento.

La ricerca in questo settore è forte tante alternative vengono proposte in continuazione e la speranza è quella di riuscire un giorno a trovare dei protocolli o meglio dei processi che siano in grado di risolvere in maniera completa e definitiva l’argomento “riciclo plastiche”.

Nuovo Codice deontologico Farmindustria

Fondata nel maggio del 1978, Farmindustria è l’Associazione delle imprese del farmaco. Aderisce a Confindustria, alla Federazione Europea (EFPIA) e a quella mondiale (IFPMA). Conta circa 200 aziende associate che operano in Italia, sia nazionali sia a capitale estero.

Il giorno 19.01.2022, Farmindustria ha approvato la nuova versione del Codice deontologico che introduce alcune novità per le aziende del settore farmaceutico aderenti all’Associazione delle imprese del farmaco.

Il Codice deontologico è un accordo fra le industrie farmaceutiche aderenti alla Farmindustria volontariamente approvato nel rispetto delle relative norme statutarie e delle regole dettate dai Codici deontologici delle Federazioni europea e internazionale dell’industria farmaceutica (EFPIA e IFPMA), e diretto a regolamentare i rapporti tra le industrie e tra queste ed il mondo scientifico e sanitario. L’appartenenza alla Farmindustria è subordinata all’accettazione ed al rispetto del Codice deontologico.

Il Codice rappresenta l’impegno delle industrie farmaceutiche al rispetto delle specifiche leggi vigenti e ad operare secondo trasparenti norme comportamentali che regolamentano le diverse fattispecie in cui si articola l’attività aziendale.
La regolamentazione oggetto del Codice Deontologico è diretta a tutelare, nel generale interesse, il prestigio e la credibilità dell’industria farmaceutica nei confronti dello Stato, dell’opinione pubblica, della classe medica, degli operatori sanitari in generale.

Il rispetto del Codice comporta, da parte delle industrie aderenti alla Farmindustria:

  • l’osservanza delle delibere degli organi associativi adottate in conformità alle norme statutarie, ai principi di concorrenza ed ai principi democratici, astenendosi da iniziative che contrastino con le delibere stesse;
  • il rispetto di una competizione leale fra le industrie stesse, indirizzando l’attività dell’impresa, nei suoi vari aspetti, in modo da non ledere i legittimi interessi delle altre;
  • il contributo di ciascuna azienda per la difesa di una buona immagine dell’industria farmaceutica verso il mondo esterno.

Sono esclusi dall’ambito di applicazione del Codice deontologico:

  • le attività finalizzate alla diffusione di informazioni di carattere non promozionale, di informazioni generali riguardanti le aziende (come le informazioni dirette agli investitori o alla stampa), compresi i dati finanziari e le descrizioni dei programmi di ricerca e sviluppo a condizione che gli operatori sanitari siano presenti in misura non prevalente;
  • gli eventi istituzionali organizzati dalle aziende farmaceutiche su tematiche che esulano dall’informazione scientifica sul farmaco, che siano diretti ad una molteplicità di soggetti provenienti da tutti i settori potenzialmente interessati, che si tengano in sedi e località idonee e nel cui ambito gli operatori sanitari siano presenti in misura non prevalente.

Per il testo completo, consultabile al seguente link (https://www.farmindustria.it/app/uploads/2018/06/2022-APRILE-5.pdf), si rinvia al sito web di Farmaindustria.

Di seguito le principali novità introdotte nel testo del 2022:

  • le aziende farmaceutiche potranno fornire “informazioni al pubblico” attinenti prodotti e patologie purché non abbiano natura commerciale.
  • sarà, inoltre, possibile inserire sui siti internet aziendali ad accesso pubblico informazioni comprendenti il brand name dell’azienda farmaceutica e la riproduzione integrale e letterale del foglietto illustrativo, nonché la riproduzione fedele della confezione del medicinale a condizione che tali informazioni non siano state oggetto di una selezione o rimaneggiamento e siano contenute in una parte specifica del sito accessibile esclusivamente tramite un’azione attiva di ricerca da parte dell’utente che vuole ottenerle;
  • le aziende farmaceutiche potranno svolgere “attività formativa e informativa in favore dei soggetti non prescrittori coinvolti nella somministrazione delle terapie, purché tali attività non abbiano finalità promozionale e le informazioni trattate siano connesse al ruolo di tali soggetti (es. infermieri) nel processo di gestione del paziente, nella ricerca clinica e nella corretta e sicura somministrazione della terapia“;
  • Patient Support Program (PSP): trattasi di una “iniziativa che ha per finalità la messa a disposizione da parte dell’azienda farmaceutica di servizi addizionali e non sostituivi a quelli in capo all’Ente o al SSN a diretto beneficio del paziente in trattamento con uno specifico farmaco già autorizzato all’immissione in commercio“. Le aziende farmaceutiche potranno avvalersi di un provider esterno per organizzare un PSP e il materiale utilizzato dovrà essere funzionale unicamente alla comunicazione di informazioni necessarie all’utilizzo appropriato del farmaco e non essere uno strumento promozionale. La durata dei servizi del PSP dovrà essere definita previamente e dovrà essere congrua rispetto al bisogno identificato e al relativo beneficio per il paziente. Infine, viene integralmente rivista la disciplina connessa al trattamento dei dati personali dei pazienti coinvolti nel PSP e specificato che l’azienda farmaceutica dovrà restare estranea al trattamento di tali dati e che potrà visualizzare solo dati aggregati a fini statistici sull’utilizzo del servizio;
  • l’azienda farmaceutica potrà fornire informazioni sui medicinali a diversi stakeholder senza svolgere alcuna forma di pubblicità del farmaco.

Fonti: farmindustria.it; osborneclark.com; aboutpharma.com; makingpharmaindustry.it.

%d blogger hanno fatto clic su Mi Piace per questo: