L’UE approva la NIS2: in arrivo nuove misure per la cybersicurezza

Lo scorso dicembre è stata ufficializzata l’approvazione della direttiva NIS2, un corposo aggiornamento della precedente direttiva NIS1, adottata nel 2016 da Parlamento Europeo e Consiglio come uno dei primi atti dell’UE per fare fronte alle nuove necessità in termini di cybersicurezza.

L’importanza della sicurezza informatica ha sempre più peso nella politica europea – Fonte: PEXELS

La NIS1 (che sta per network and information systems) richiedeva agli Stati Membri di sviluppare una strategia nazionale per la cybersicurezza e identificare quei soggetti che trattavano servizi essenziali mediante l’uso di mezzi informatici. All’identificazione seguiva poi l’introduzione di nuove regole sulla cybersicurezza affinché questi soggetti le facessero proprie nei loro processi, in modo da rendere i servizi essenziali meno vulnerabili nei confronti di attacchi informatici. Dal 2016 in poi, data d’adozione della direttiva, si è però registrata un’implementazione scarsa e frammentata delle nuove indicazioni, tanto che in alcuni Stati europei alcune aziende erano identificate come fornitrici di servizi essenziali mentre in altri Stati – anche confinanti – non erano riconosciute come tali. Questa disomogeneità, sommata alla necessità di enti pubblici e aziende di difendersi in modo efficace dai crescenti attacchi informatici, ha portato la Commissione Europea a ricercare una soluzione per migliorare la precedente direttiva e rendere l’Europa più resiliente di fronte alle minacce informatiche.

Ed ecco che arriviamo alla NIS2, uno strumento che – all’interno del più ampio programma europeo del Decennio Digitale (2020-2030) – punta all’aggiornamento delle precedenti misure e all’introduzione di nuove indicazioni per contrastare le minacce cyber. Nella direttiva viene identificata una lista precisa di settori che saranno interessati e prevede che i soggetti di maggior rilievo operanti in questi settori saranno automaticamente considerati come essenziali e che, quindi, dovranno obbligatoriamente adattarsi alle nuove norme in termini di cybersicurezza.

I soggetti interessati saranno quindi con oltre 250 dipendenti e un fatturato annuale di oltre 50 milioni, operanti nei settori dell’energia, dei trasporti, della gestione dell’acqua, provider di servizi digitali di archiviazione di dati offline e in cloud ma non solo. Oltre a questi, già de facto considerati nella direttiva NIS1, saranno presi in considerazioni soggetti operanti in settori comunemente non associati al digitale come i servizi postali, la gestione dei rifiuti, l’alimentare e anche il settore dello spazio. È evidente quindi che, con la penetrazione del digitale in sempre più settori, siano sempre di più i soggetti interessati da attacchi informatici critici e necessitanti quindi di adottare le giuste misure di prevenzione e protezione.

Dovranno adottare le nuove indicazioni anche gli enti amministrativi, sia a livello centrale che regionale, mentre non saranno interessati i Parlamenti né le banche centrali. Resterà inoltre un certo livello di flessibilità e autonomia in capo agli Stati membri nel decidere quali altri settori considerare come essenziali e se includere enti locali e settore educativo nella lista degli enti interessati. Insomma, la copertura della nuova direttiva sarà sostanziale, con una stima che prevede fino a 10 volte più soggetti interessati dalla direttiva NIS2 di quanti lo fossero stati dalla precedente NIS1.

Capito chi sarà interessato dalle nuove regole, è il caso di vedere cosa comportano di fatto e quali benefici apportano. Prima di tutto gli enti affetti da attacchi significativi in termini di cybersicurezza (dove però per definire i “significativi” è lasciato spazio a futura legislazione) dovranno notificare il loro avvenimento entro un massimo di 24 ore dal momento in cui ne vengono a conoscenza, seguito da un report più approfondito entro 72 ore (includendo una prima valutazione ad opera dell’ente stesso sulle caratteristiche dell’attacco) e un report finale entro un mese dalla prima notifica.
Inoltre, la direttiva include un indice di misure di gestione del rischio che gli operatori dovrebbero mettere in atto e un chiaro elenco di aree in cui le misure dovrebbero essere adottate, tra cui l’analisi del rischio e le politiche di sicurezza dei sistemi informativi, la continuità operativa, la sicurezza della supply chain, l’uso della crittografia e altro ancora.

Ci si domanda se la nuova direttiva avrà un effetto migliore rispetto alla precedente, questo perché, come detto, il risultato non era stato molto omogeneo ed efficace. Questo forse anche a causa della eccessiva flessibilità della NIS1, che aveva lasciato agli Stati Membri troppo spazio di manovra anche su implementazioni che avrebbero dovuto essere più coordinate. Questo è stato in buona parte risolto nella NIS2 poiché essa stessa indica già in modo dettagliato la direzione da seguire, lasciando meno al caso e alle variabili condizioni nazionali. Inoltre sono state introdotte sanzioni molto onerose (a partire da 7 milioni di euro ma anche l’1,4% del PIL annuale) per quegli Stati che non si adoperassero per integrare e far rispettare le disposizioni della direttiva a livello nazionale nei (comunque larghi) tempi previsti. In più, a dimostrazione di quanto la materia è stata presa sul serio a livello europeo, saranno previste verifiche (online ma anche con ispettori in carne ed ossa sul posto) per assicurarsi che le misure di sicurezza e prevenzione siano state prese seriamente, con responsabilità che coinvolgeranno anche i più alti gradi (CEOs e co.) di gestione dell’ente o azienda in questione.

Tutto ciò potrebbe sembrare distante dalla vita quotidiana ma per capire l’importanza di queste nuove misure basta pensare alla quantità di dati sensibili che sempre di più sono in carico a vari enti e aziende, dai nostri dati sanitari alla tassazione, dai dati bancari per pagare gli abbonamenti a servizi digitali ai documenti archiviati in cloud su piattaforme di aziende come Google o Apple. E vanno considerati anche gli impianti di depurazione dell’acqua (si veda il caso statunitense salito alle cronache lo scorso anno), i sistemi di gestione dei trasporti ferroviari e altri settori ancora dove la digitalizzazione ha portato a molte migliorie ma anche nuovi rischi d’esposizione agli attacchi informatici. Come riportato anche da Forbes.com, gli attacchi cyber globali sono aumentati del 28% nel terzo trimestre del 2022 rispetto allo stesso periodo del 2021 con una media degli attacchi settimanali in crescita. È quindi chiaro come le nuove misure pensate a livello europeo siano una necessità e come sia assolutamente necessario per gli Stati e le aziende essere preparati a mettere in atto queste misure, non solo per non incorrere in sanzioni ma soprattutto per non mettere a rischio settori essenziali per l’economia e per la vita stessa di noi cittadini.

Lecanemab vs Alzheimer

Un farmaco sperimentale mostra un modesto successo contro la malattia di Alzheimer, rallentando la progressione della patologia ed il declino della memoria.

Questa illustrazione resa disponibile dal National Institute on Aging / National Institutes of Health raffigura le cellule in un cervello affetto da Alzheimer.
NATIONAL INSTITUTE ON AGING, NIH / AP

Il nuovo farmaco sperimentale è l’anticorpo monoclonale Lecanemab o BAN2401. Si tratta di un farmaco sviluppato dalla società giapponese Eisai insieme alla partner statunitense Biogen. I primi risultati dei test clinici, pubblicati sulla rivista The New England Journal of Medicine, hanno mostrato una riduzione dei segni clinici della malattia nei pazienti con Alzheimer allo stadio precoce. I ricercatori sono “cautamente ottimisti” sul fatto che i risultati saranno confermati nei futuri studi clinici.

Anticorpo monoclonale umanizzato, Lecanemab mira rallentare la progressione della malattia quando si interviene ad uno stadio precoce. Dallo studio di fase 3 è emerso che il farmaco sperimentale Lecanemab interferisce con la formazione della placca amiloide, un segno distintivo dell’Alzheimer. I partecipanti sono stati assegnati in modo casuale a un’infusione endovenosa del farmaco in studio o di un placebo ogni due settimane per 18 mesi. Lecanemab è risultato efficace in pazienti con malattia di Alzheimer precoce. 

Come agisce Lecanemab?

Lecanemab è la versione umanizzata IgG1 dell’anticorpo monoclonale di topo mAb158, che si lega selettivamente a grandi protofibrille Aβ solubili. L’anticorpo terapeutico è stato originariamente sviluppato presso la società biotecnologica BioArctic Neuroscience in seguito alla scoperta della mutazione “artica” nell’APP, che porta a una forma di malattia di Alzheimer clinicamente tipica che è caratterizzata da livelli particolarmente elevati di protofibrille Aβ e relativa assenza di placche amiloidi (vedi Nilsberth et al., 2001). mAb158 è stato trovato per ridurre le protofibrille Aβ nel cervello e nel liquido cerebrospinale dei topi Tg-ArcSwe (Tucker et al., 2015). Studi successivi in co-colture neurone-gliali di topo hanno dimostrato che mAb158 può proteggere i neuroni, cioè ridurre la tossicità della protofibrilla Aβ, contrastando l’accumulo patologico di queste protofibrille negli astrociti (Söllvander et al., 2018).

Quali sono le differenze con Aducanumab, altro anticorpo monoclonale contro Alzheimer (vedi link -> Aducanumab) ?

In un confronto diretto con l’anticorpo anti-amiloide Aducanumab, Lecanemab è stato segnalato per legarsi più fortemente alle protofibrille Aβ, mentre l’altro seleziona forme più aggregate (notizie della conferenza di novembre 2021).

Quale è il percorso preclinico di Lecanemab?

Nel settembre 2021, la società giapponese Eisai ha iniziato una valutazione di fase 1 della somministrazione sottocutanea di Lecanemab. Lo studio ha confrontato la farmacocinetica, la biodisponibilità e la sicurezza di una singola iniezione di 700 mg sotto la pelle nell’addome con 10 mg / kg somministrati per via endovenosa in 60 persone sane; è stato completato nel gennaio 2022. Nel settembre 2022, uno studio di fase 1 ha iniziato a valutare la bioequivalenza di una formulazione sottocutanea somministrata con un dispositivo autoiniettore; mira ad arruolare 160 partecipanti sani e ad essere completato entro febbraio 2023. In novembre 2021, il DIAN-TU ha annunciato la sua scelta di Lecanemab per il primo studio concomitante DIAN-TU anti-amiloide / anti-tau (notizie della conferenza di novembre 2021). Abbinerà lecanemab con l’anticorpo anti-tau E2814 nello studio di prevenzione Tau NexGen in 168 persone con mutazioni familiari di AD (Alzheimer Disease). Questa sperimentazione si svolgerà in 40 siti nelle Americhe, in Australia, in Giappone e in sei paesi europei, fino al 2027 (notizie di marzo 2021). Nel maggio 2022, Eisai/Biogen ha completato la presentazione della FDA di lecanemab, sulla base dei dati di Fase 2 (notizie di maggio 2022). Nel luglio 2022, la FDA ha concesso lo status di revisione prioritaria alla domanda, con una data di decisione del 6 gennaio 2023 (notizia luglio 2022).

Comunità Energetiche Rinnovabili

Fonte: La Repubblica

Le Comunità Energetiche Rinnovabili (CER) sono recenti modelli di autoconsumo collettivo attraverso i quali le imprese, le comunità locali ed i cittadini condividono energia elettrica prodotta da impianti alimentati da fonti rinnovabili. Si tratta, quindi, di modelli innovativi per la produzione, la distribuzione ed il consumo di energia rinnovabile, al fine di evitare lo spreco energetico.

Il loro sviluppo deriva dal superamento di un limite normativo, secondo il quale l’energia prodotta da un impianto alimentato da fonte rinnovabile venisse auto-consumato sono dall’utente che lo aveva installato. Infatti, uno degli obiettivi del PNRR è incrementare la quota di energia prodotta da fonti rinnovabili attraverso la promozione di queste comunità e dell’autoconsumo. Tutto ciò trova fondamento in due fondamentali Direttive europee di recente emanazione: la Renewable Energy Directive II 2018/2001 (RED II) e la Directive on common rules for the internal market for electricity 2019/944 (IEM).

Quali sono i benefici del far parte di una CER?

  1. risparmio in bolletta in caso di autoconsumo istantaneo;
  2. riduzione dell’impatto ambientale, senza spreco di energia;
  3. la possibilità di accedere alle agevolazioni fiscali (per i privati, Ecobonus e Superbonus 110%; per le imprese, credito d’imposta per investimenti in beni strumentali);
  4. incentivazione in quanto la Comunità usufruisce di tre tipologie di contributi economici: valorizzazione dell’energia elettrica condivisa attraverso la restituzione delle componenti tariffarie; incentivazione dell’energia condivisa; ritiro dell’energia immessa in rete da parte del Gestore dei Servizi Energetici SpA (GSE).

Chi può far parte di una CER?

  • Privati;
  • Tutte le imprese, a condizione che la partecipazione non costituisca la loro attività commerciale e industriale principale;
  • Enti locali, religiosi, di ricerca e formazione, del terzo settore;
  • Pubbliche amministrazioni.

Importante sottolineare il fatto che il cliente finale è libero di uscire in qualunque momento da una CER e può appartenere solo ad una di queste.

Come si fa ad avviare una Comunità Energetica?

E’ necessario costituire un soggetto giuridico no profit che nel suo statuto abbia la finalità principale di fornire benefici ambientali, economici o sociali a livello di comunità, ai propri azionisti e/o ai membri/aree locali in cui esso opera. Alcune forme giuridiche applicabili alle CER sono: associazioni riconosciute e no; consorzi e società consortili; fondazioni di partecipazioni; cooperative a mutualità prevalente. Secondo Legambiente, le CER effettivamente operative, in progetto o in fase di costituzione sono 100; tra queste 59 sono state registrate tra giugno 2021 e maggio 2022 e vedono il coinvolgimento attivo di famiglie, comuni ed imprese.

Fonti:

Milano Finanza, Unioncamere

I bronzi di San Casciano, dalla notizia alla storia

L’eccezionale scoperta dei bronzi di San Casciano dei Bagni proviene delle attività di scavo condotte da Jacopo Tabolli e Emanuele Mariotti accanto alla vasca termale ancora oggi in uso, nell’area del Bagno Grande: quella che può apparire al grande pubblico come una scoperta accidentale e fortuita è in realtà frutto di una scrupolosa ricerca protratta negli anni, resa possibile anche grazie alla Soprintendenza e il Comune.

Già dal nome “San Casciano dei Bagni” si intuisce la stretta connessione del paese con le sorgenti termali, utilizzate fin dall’antichità. La presenza di un sito romano è sempre rimasta nota fino ai giorni nostri: intorno al 1990 l’area è stata dichiarata protetta visto l’interesse archeologico, scientificamente attestato da sporadici rinvenimenti materiali, nonostante la maggior parte delle strutture romane non fosse visibile, sepolte dal fango e dalla vegetazione. Come fare per recuperarle?

Le indagini scientifiche del sito volte a riportare alla luce le antiche strutture iniziano nel 2016-2017 con le ricognizioni di Giorgio Franco Pocobelli che portarono ad una prima mappatura dei resti. Successivamente la Soprintendenza, grazie a Massimo Tarantini, ideò la campagna di analisi geofisiche guidata nel 2018 da Emanuele Mariotti, Gabriella Carpentiero e Cesare Felici: vennero così identificate le strutture ancora sepolte: non restava che dissotterrarle e portarle alla luce. Gli scavi iniziano nel 2020 e si protraggono fino ad oggi e ci auguriamo che proseguano in futuro.

L’area, che ricadeva nel territorio di Chiusi, subì intorno al 90 a.C. un processo di romanizzazione, riassumibile come scambio e contaminazione sociopolitico e culturale tra Etruschi e Romani. Nello stesso periodo è stata osservata una rivitalizzazione dei luoghi sacri etruschi, specialmente quelli connessi con le sacre acqua termali: ciò può fornirci la spiegazione della costruzione del santuario che è stato portato alla luce.

L’architettura monumentale rinvenuta, che oggi si trova a soli 20 metri di distanza dalle vasche moderne, fu edificata agli inizi del I secolo d.C. (età augustea) forse modificando e/o sovrapponendosi ad una struttura precedente: si costruì un edificio con atrio con al centro un bacino circolare costruito intorno alla sorgente, contornato da colonne che reggevano il tetto di copertura della stanza ma lasciando uno spazio aperto esattamente al di sopra del bacino (compluvium: è lo stesso sistema di raccolta delle acqua piovane che si trova nelle case di Pompei).

Tra 50 e 100 d.C. un disastro, probabilmente un incendio, distrusse parzialmente l’edificio che fu ricostruito, ampliato e staticamente consolidato con l’aggiunta di pilastri; fu anche aggiunto un altare all’entrata per le offerte. Il santuario in questa forma sopravvive circa fino al 200 d.C. con l’aggiunta di altari con iscrizioni, verosimilmente posti nei pressi del bacino: erano dedicati ad Apollo, Asclepio, Igea, Iside e Fortuna Primigenia. Queste divinità suggeriscono che il santuario ospitava culti legati alla guarigione forse proprio legati alle sorgenti termali.

Tra il 300 e il 400 d.C. il santuario fu ristrutturato con l’aggiunta di piccoli vani fino ad essere demolito intorno al 400 d.C. probabilmente in connessione alla diffusione del cristianesimo nell’area di Chiusi.

L’abbandono dell’edificio avviene in modo ordinato, disponendo ordinatamente le colonne e gli altari su un fianco. Questa disposizione serviva verosimilmente per coprire offerte votive (ovvero offerte materiali agli dei donate dopo aver ricevuto una grazia, verosimilmente una guarigione). Proprio queste offerte votive costituiscono in parte lo straordinario rinvenimento delle sculture bronzee che tanto ci ha fatto emozionare. Le varie statue rappresentano parti anatomiche, offerenti e divinità, mirabilmente conservatasi. Il rinvenimento è degno di nota non solo per la bellezza delle statue: il materiale, il bronzo, si conserva difficilmente fino ai nostri giorni in quanto veniva comunemente fuso per essere riutilizzato; il contesto del rinvenimento corrisponde esattamente al santuario per il quale queste offerte furono create; la quantità di statue rinvenute in un solo luogo è veramente notevole; sembra che le statue presentino delle iscrizioni e solo studi più approfonditi potranno rivelarne il contenuto.

Rimaniamo in attesa della pubblicazione scientifica del materiale che fornirà nuovi indizi per capire i culti legati alle sorgenti di San Casciano dei Bagni, la diffusione dei culti delle divinità qui presenti e del rapporto tra la civiltà etrusca e quella romana che sembrano coesistere pacificamente in questo sito.

Per una lettura più approfondita consiglio di leggere “Il santuario ritrovato. Nuovi scavi e ricerche al Bagno Grande di San Casciano dei Bagni”, a cura di Emanuele Mariotti e Jacopo Tabolli per leggere direttamente i risultati scientifici delle campagne di scavo.

Se volete rimanere aggiornati sulle novità vi consigliamo di seguire la loro pagina Facebook ricca di aggiornamenti.

Autrici:
Caterina Grassi
Elisa Del Santo
Giuditta Versili Olmi

Copyright immagine: ANSA

Staminali contro la neuro degenerazione: ipocrisia o reale opportunità?

Nel 1965, i ricercatori Joseph Altman e Gopal Das scoprirono la presenza di cellule staminali neurali nei ratti, le cosiddette NSPCs (neural stem precursor cells) in grado di dare origine a neuroni. Da questo concetto, è stato possibile iniziare a parlare di neurogenesi. La neurogenesi individuata nell’adulto è il concetto di base che ha favorito lo sviluppo delle terapie basate sul trapianto delle staminali. La plasticità di queste cellule, intesa come la capacità di esercitare l’azione terapeutica nella zona di trapianto, permette di riparare il tessuto danneggiato. La terapia cellulare può sostituire cellule andate in contro a morte, fornire supporto neurotrofico e agire sulla immunomodulazione.

Le patologie del sistema nervoso centrale e periferico (rispettivamente SNC e SNP) interessano una fetta ampia della popolazione (centinaia di milioni di persone in tutto il mondo, 10% delle patologie totali) e sono una delle principali cause di disabilità: sono al secondo posto per causa di morte, subito dopo le malattie cardiovascolari.

In un cervello adulto abbiamo 100.000 milioni di neuroni collegati da 10.000 miliardi di sinapsi, il tutto in un organo di circa 1,5 kg. In un giorno si perdono circa 85.000 neuroni sottocorticali, in 60 anni circa 31.000.000.000. Nel 1965, sono state individuate in roditori NSPCs (neural stem precursor cells) in grado di dare origine a neuroni (link). Da questo concetto, è stato possibile iniziare a parlare di neurogenesi. Questi progressi rigenerativi sono finalizzati alla rigenerazione tissutale.

Un esempio nel quale si assiste al fenomeno di neurogenesi è la zona subgranulare del giro dentato dell’ippocampo. In questa zona, le cellule proliferano e formano un cluster di cellule chiamato Neurosfera, che contiene sia cellule staminali che progenitori; da questa derivano tutti i tipi di cellule neuronali. All’interno della neurosfera è presente una quota di staminali compresa tra il 10 e il 50%.


Per quanto riguarda il trapianto sperimentale che utilizza queste cellule per promuovere la riparazione del SNC, i risultati ottenuti suggeriscono che il trapianto promuova la riparazione non solo sostituendo le cellule, ma anche prevenendo il danno con la secrezione di molecole neuro protettive. 


Le cellule staminali potrebbero rappresentare una efficiente strategia di cura. Queste cellule possono essere utilizzate come modello di malattia o come screening dei farmaci. 
Le principali caratteristiche delle cellule staminali sono due:
1) autorinnovamento = capacità di dare origine, in seguito a divisione cellulare, ad altre cellule staminali che conservano la stessa potenzialità della cellula madre (quindi self-renewal)
2) multipotenza, differenziazione = capacità di dare origine a vari tipi di cellule con vari livelli di differenziazione. 

Le cellule staminali neuronali risiedono in due zone del cervello:
1) la zona subgranulare del giro dentato dell’ippocampo
2) la zona subventricolari dei ventricoli cerebrali
In queste due zone, le cellule staminali risiedono nelle nicchie germinali dove regolano l’autorinnovamento e la differenziazione. 

Fonte: Cell Press, Neuron, link -> link

Biocombustibili

I Biocombustibili sono combustibili ottenuti dalla lavorazione di biomasse essenzialmente vegetali, edibili e non (come ad esempio palma, mais, grano, canna da zucchero) che a differenza del petrolio o del gas fossile hanno il vantaggio di essere risorse rinnovabili. Tra i più famosi biocombustibili si annoverano il bioetanolo e il biodiesel prodotti rispettivamente dalla fermentazione alcolica di biomasse ricche di carboidrati e dall’idrolisi di oli vegetali.

Benché siano combustibili prodotti a partire da risorse rinnovabili si preferisce ancora l’utilizzo di prodotti fossili sia per ragioni economico-politiche, che per la resa energetica inferiore. Inoltre non si può non considerare il fatto che una produzione massiva di biocarburanti potrebbe portare ad un aumento della deforestazione nonché ad una diminuzione del terreno utilizzabile per le coltivazioni ad uso alimentare.

Il Trattato zombie sulla Carta dell’Energia

Impianto industriale di notte / photo by Loïc Manegarium

Il progetto alla base del Trattato nasce nel 1991, mentre l’Unione Sovietica collassava e i paesi europei con un’industria sempre più energivora cercavano di evitare i conseguenti squilibri nel mercato dell’energia.

Una prima dichiarazione venne firmata a L’Aia nel Dicembre 1991 col nome di Carta Europea dell’Energia. L’intento era quello di settare i principi della cooperazione internazionale nel commercio, trasporto, investimenti relativi all’energia e gettare le basi per un trattato legalmente vincolante tra le parti. Il Trattato prese forma – e firme – nel 1994 a Lisbona ed entrò in vigore nell’Aprile 1998 raggiungendo negli anni l’adesione di più di 50 Stati, perlopiù europei.

Il Trattato si occupa, in breve, di:

  • Commercio dell’energia, si creano così mercati aperti di merci (ma non di servizi né di proprietà intellettuale) in accordo con le regole indicate dall’Organizzazione Mondiale del Commercio
  • Investimenti nel settore, punto chiave del trattato che mira alla protezione degli investimenti esteri diretti effettuati negli Stati membri. Il trattato garantisce almeno 340 miliardi di dollari di investimenti in combustibili fossili ed è garanzia contro rischi politici come espropriazione, nazionalizzazione, danni da guerra, ecc.
  • Risoluzione delle dispute, specialmente quelle che emergono tra uno Stato contraente e un investitore di un altro Stato. Nel 2021 la Corte di Giustizia dell’Unione Europea ha dato un duro colpo all’abilità regolatoria del trattato tra gli Stati UE in quanto ha ritenuto molto delle sue disposizioni non valide nel contesto europeo, come si vedrà più avanti.
  • Efficienza dell’energia, nel senso sia economico del termine che di quello ambientale, seppure questo punto del trattato non sia stato vincolato legalmente e affidato puramente alla volontà politica degli Stati.
  • Trasporto dell’energia, inteso come l’intera catena. Sono infatti regolate le condizioni alle quali l’energia può essere scambiata e trasportata attraverso varie giurisdizioni nazionali verso i mercati internazionali. In quanto tale, l’accordo ha lo scopo di prevenire l’interruzione del passaggio di carburante tra i paesi.

Questo trattato ha iniziato a vedere i primi cedimenti 30 anni dopo il suo concepimento, vedendo, come accennato prima, un’azione di ridimensionamento ad opera della Corte di Giustizia Europea. Quest’ultima il 2 settembre 2021 ha infatti dichiarato il Trattato come incompatibile con la legge europea e quindi non sfruttabile dalle aziende europee per fare causa agli Stati UE che avessero ritirato gli investimenti dalle quelle aziende coinvolte nell’estrazione e produzione di combustibili fossili. Il conflitto si è infatti generato con il cambiamento delle priorità degli Stati UE: se trenta anni fa la necessità era quella di tutelare le aziende produttrici e il mercato europeo dell’energia tutto da possibili contraccolpi dovuti al crollo sovietico, oggi la grande minaccia del riscaldamento globale ha creato urgenze che impongono un’importante e immediata riduzione della dipendenza dei paesi europei dai combustibili fossili e il Trattato sulla Carta è diventato un trattato un relitto dello scorso secolo.

In particolare è la cosiddetta “Sunset Clause” (clausola del tramonto) che ha perso il suo potere legale di permettere alle aziende europee di far mantenere gli investimenti degli Stati per un periodo di 20 anni dal loro ritiro. Ma, dopo la sentenza della Corte, la “via di fuga” si è aperta. Dopo un ritiro dell’Italia nel 2016, Stato precursore nel liberarsi dai vincoli del Trattato, oggi sempre più Stati europei si stanno dichiarando prossimi al ritiro, con i Paesi Bassi (Olanda) in testa (è infatti grazie a una causa a loro intentata che si è arrivati al sopracitato giudizio della Corte) che sono già stati seguiti dalla Spagna, dalla Polonia e pochi giorni fa anche dalla Francia. Anche a livello UE, dopo un iniziale tentativo di riformare il trattato, l’idea di un ritiro collettivo di tutti gli Stati membri sembra prendere forma sempre di più. La Carta è a corto di energie.

Fonte

Fonte

Fonte

Non Fungible Token (NFT): come si creano?

NFT

Come si crea un NFT?

Prima di affrontare questo punto va fatta distinzione tra arte “nativa” digitale e arte che “diventa” digitale a seguito di un processo di digitalizzazione, cui segue la tokenizzazione e la trasformazione in NFT.

L’arte nativa digitale indica tutte quelle forme d’arte nate appunto grazie a una tecnologia digitale (computer, macchina fotografica, etc.) e destinate a essere riprodotte esclusivamente tramite supporti digitali, come possono essere la videoarte o la fotografia (digitale).

Diversa è invece un’opera d’arte nata su un supporto fisico, come un quadro o una scultura o una fotografia su pellicola, e la cui immagine viene successivamente “digitalizzata”, cioè trasformata in un file digitale tramite una videoripresa, una fotografia (digitale) o strumenti analoghi.

I file digitali per un computer vengono rappresentati in memoria sotto forma di lunghissime sequenze di zeri e di uno. Questa sequenza viene sintetizzata in un’altra molto più corta, chiamata hash, tramite una funzione di hashing. Questo hash deriva quindi direttamente dall’oggetto digitale che lo ha prodotto (cioè il contratto contento nell’NFT). Chi lo possiede può facilmente ricostruire l’oggetto originale, mentre è praticamente impossibile per chiunque altro.

L’hash viene salvato con una marca temporale, cioè un servizio che permette di associare data e ora certi ad un documento digitale (e che non può essere contraffatto, ad esempio non può essere postdatato). Infine, viene memorizzato su una delle blockchain che forniscono questo tipo di smart contract.

Gli smart contract sono dei programmi informatici che implementano delle istruzioni condizionali all’interno della blockchain, quindi istruzioni del tipo if / then. In sostanza sono dei processi automatizzati, che all’accadere di un evento eseguono una determinata azione, ad esempio: se ricevono un pagamento, allora rilasciano un servizio.

Per fare un po’ di chiarezza: esistono tante blockchain, che si basano su tecnologie diverse. Originariamente sono nate per lo scambio di criptovaluta, successivamente, prima tra tutte quella di Ethereum, hanno iniziato ad ampliare i servizi offerti, implementando gli smart contract.

Gli NFT resteranno consultabili sulla blockchain su cui sono ospitati finché questa resterà attiva. Dal punto di vista della sicurezza informatica, il mondo blockchain è super efficiente, mentre sul piano energetico questa tecnologia consuma tantissima energia elettrica. Al momento i costi energetici per la sola creazione di un singolo NFT, sulla blockchain di Ethereum, può arrivare a toccare i $100, mentre il costo di trasferimento di un NFT attualmente si aggira intorno ai $40. C’è però da ricordare che la blockchain è una tecnologia molto recente che col tempo migliorerà sensibilmente la sua efficienza. Inoltre, servendosi della blockchain, anche i pagamenti (per l’acquisto e la vendita di NFT) sono resi sicuri e decentralizzati.

Altra caratteristica interessante degli NFT è che permettono di frammentare i diritti sull’oggetto, è quindi possibile avere un unico contratto (NFT) che suddivide i diritti di un oggetto tra più proprietari che ne detengono ciascuno una percentuale. Ciascuno di loro può vendere la sua parte o comprarne un’altra, senza dover rivolgersi a tutti i comproprietari.

  • Forbes advisor
  • CNN
  • Il sole 24 ore: Osservatorio Blockchain & Distributed Ledger
  • ibicocca.unimib.it Alberto Sormani

Musei Vaticani: l’uno e il tutto

La storia

I Musei Vaticani si presentano al visitatore odierno come uno dei luoghi più suggestivi al mondo, con collezioni di natura eterogenea tra loro che spaziano tra scultura e pittura, tra passato ed età contemporanea. La grande varietà delle opere esposte deriva dall’antichità stessa dell’istituzione e dal precoce interesse dei Papi succedutesi al soglio pontificio verso le arti, l’archeologia e l’architettura. La creazione di continue collezioni per volere di diversi pontefici denomina questo singolare posto non come Museo, bensì come Musei.

Il primo nucleo costituito da sculture antiche venne allestito per volontà di Giulio II della Rovere (1503-1513) ed esposto in forma non ancora pubblica. Le antiche statue romane iniziavano in quel periodo ad essere riscoperte sia in senso fisico, come il Laocoonte rinvenuto sull’Esquilino, sia in senso estetico grazie ad un clima culturale di riscoperta della classicità.  Venivano perciò riconosciute come espressione del passato glorioso dell’Urbe, adesso ereditato e accresciuto dai Pontefici.

L’esistenza di un museo inteso in senso moderno, volto a conservazione, tutela e studio delle opere si avrà solo nella seconda metà del XVIII secolo grazie a pontefici Clemente XIV e Pio VI. Complice il fermento culturale derivato dall’Illuminismo le collezioni crebbero e vennero esposte nel Museo Pio Clementino, visibile ancora oggi. Questo museo previde il riallestimento delle statue di Giulio II all’interno di un’architettura rinnovata, il Cortile Ottagono. Il Museo accolse altre opere esponendole in modo armonico con l’architettura: l’emblema di questa sintesi è ben espresso nella Sala Rotonda che combina sculture e opere musive di età romana con un’architettura ideata appositamente ad imitazione del Pantheon.

Dei primi dipinti dei Musei, acquisiti da Pio VI, molti furono ceduti a Napoleone a seguito del trattato di Tolentino.

Successivamente Pio VII Chiaramonti aumentò la raccolta di antichità classiche istituendo il Museo Chiaramonti nel 1806. Ideato da Antonio Canova, nominato Ispettore Generale delle Belle Arti e dei Musei Vaticani, questo luogo unisce scultura, architettura e pittura, rappresentate rispettivamente dalle opere antiche, da antiche decorazioni architettoniche riassemblate, e da affreschi dell’epoca. Nel 1822 verrà realizzato il Braccio Nuovo ad opera dello stesso Pio VII volto ad ospitare capolavori della classicità.

Altre collezioni che guardano all’antichità, stavolta non includendo solamente la classicità romana, saranno quelle del Museo Gregoriano Etrusco e del museo Gregoria Egizio, istituiti nella prima metà del XIX secolo. Qui sono state riuniti reperti provenienti da scavi ed esplorazioni per volere di Gregorio XVI Cappellari. Lo stesso pontefice ideò la Galleria degli Arazzi esponendo Arazzi posseduti dal Vaticano risalenti alla prima metà del XVI secolo.

Giovanni XXIII trasferirà tra il 1962 e il 1973 all’interno di un nuovo edificio all’interno dei Musei Vaticani i musei istituiti dai suoi predecessori all’interno del Palazzo Lateranense: il Museo Gregoriano profano, il Museo Pio Cristiano, il Lapidario Profano, Cristiano ed Ebraico, il Museo Etnologico.

I Musei Vaticani ospitano anche la Collezione di arte contemporanea, le cui opere seguono il clima sacrale del luogo. L’esposizione, infatti, è stata ideata su idea di papa Paolo VI a partire dal 1964, con lo scopo di riallacciare i legami tra arte sacra e contemporaneità. Secondo il “Papa degli artisti”, questi legami potevano acquisire di nuovo l’omogeneità che avevano mantenuto per molti secoli. Paolo VI apprezzava l’arte contemporanea nella sua interezza ed era un suo conoscitore, così volle dare sfoggio ad un aspetto sottovalutato della disciplina; all’apparenza, questa era immersa in tematiche secolari e molto “terrene”, intenta ad arrovellarsi su passioni, astrattismi e turbamenti, mentre egli intende dare valore alla corrente di artisti contemporanei che hanno esplorato anche la spiritualità in ogni sua forma. Nel ‘73 inaugura la CARM, la Collezione d’arte religiosa moderna. Dirà che l’artista è “profeta e poeta dell’uomo di oggi, della sua mentalità, della società moderna”.

Paolo VI fondò inoltre il Museo Storico, contenente cimeli del pontificato non più usati, che oggi è stato smembrato ed è solo in parte visitabile nel Padiglione delle Carrozze.

Da questo denso riassunto della storia dei Musei Vaticani si intuisce bene la loro natura frammentata ed eterogenea.

Per quanto riguarda la Cappella Sistina, gli appartamenti pontifici affrescati da Beato Angelico, Pinturicchio e Raffaello e la Galleria delle Carte Geografiche, nonostante non siano concepite come sedi museali, queste sono visitabili ed oggi fanno parte del percorso dei Musei Vaticani dove ognuno di noi può ammirarle.

Nel mondo contemporaneo dove i Musei sono accessibili al pubblico, un pubblico spesso troppo numeroso o incivile, i rischi per la conservazione delle opere sono purtroppo numerosi. Ha fatto notizia il turista che ha recentemente distrutto due busti all’interno del Museo Chiaramonti. Nella galleria le opere sono ancora allestite così come concepite da Canova, senza vetri o balaustre a proteggerle dai turisti, per una scelta estetica e compositiva della collezione ben progettata fin dalla prima esposizione. Vogliamo davvero, dopo duecento anni dal suo allestimento, cambiare e mettere in discussione questo progetto e la sua bellezza per un atto di inciviltà? Sarebbe necessario educare e guidare il pubblico a scoprire i luoghi della cultura e non a consumarli perché “meta imprescindibile” o perché “famosi”. Insomma, da consumo a fruizione per godere appieno di ciò che la saggezza dei nostri predecessori ci ha lasciato, affinché ci lasci più di una semplice foto scattata con uno smartphone.

Capolavori meno noti

Per aiutare nella guida abbiamo selezionato le perle di ogni Museo tra le meno note:

Museo Gregoriano Egizio: leoni di Nactanebo. Sono due statue in basalto risalenti alla metà del IV a.C.. Collocate originariamente nell’odierna Tell Baqliya, furono traslate in età romana nel Campo Marzio e riusati alla fine del XVI secolo come decorazione della fontana dell’Acqua Felice, dove oggi vi sono delle riproduzioni.

Museo Gregoriano Etrusco: corredo tomba Regolini-Galassi. È un corredo principesco conservatesi risalenti al VII secolo a.C.; notevoli sono le oreficerie e i tre carri per il corteo funebre.

Museo Pio-Clementino: Ercole Mastai. È una colossale statua di bronzo dorato di età imperiale conservata nella Sala Rotonda. Nel 1864 fu rinvenuta in piazza del Biscione a Roma all’interno di una cassa in lastre di travertino fatta appositamente per seppellire la statua. Fu verosimilmente seppellita ritualmente dopo essere stata colpita da una folgore, espressione delle divinità che consacravano l’oggetto colpito.

Museo Chiaramonti: i ritratti. Non uno ma l’insieme: accostati l’uno all’altro nella cornice progettata da Canova è interessante confrontare i volti, talvolta ideali talvolta realistici, che costituiscono uno dei più nutriti nuclei della scultura classica.

Braccio Nuovo: i pavoni dorati. La loro copia si trova nel Cortile della Pigna. Gli originali, in bronzo dorato, dovevano costituire parte della decorazione del mausoleo di Adriano, ovvero l’attuale Castel Sant’Angelo.

Museo Gregoriano Profano: i rilievi del mausoleo degli Haterii. Provenienti da una sepoltura privata rappresentano dettagli realistici della vita della famiglia. Costruttori di professioni, hanno rappresentato una macchina da costruzione usata in epoca romana fornendoci importanti informazioni.

Museo Pio Cristiano: il sarcofago di Giona. Fu rinvenuto al di sotto di San Pietro durante il cantiere di costruzione della nuova basilica. Presenta la narrazione esponendo varie scene diacroniche.

Museo Etnologico: Vishnu stante in samapada. È la rappresentazione di una divinità della religione induista in samapada, la posizione eretta con piedi uniti. È esposta nel luogo centrale della religione Cattolica non per motivi religiosi quanto etnici e culturali. 

Padiglione delle Carrozze: Berlina di Gran Gala. Carrozza riccamente decorata, evoca tempi passati.

Museo Cristiano: vetri dorati. Di piccole dimensioni in vetro e foglia d’oro, rappresentano varie scene. Erano usati come dono e riutilizzati all’interno delle catacombe. Veniva infatti murati all’interno della chiusura del singolo loculo, come elemento caratterizzante della singola deposizione.

Museo Profano: frammenti di statua crisoelefantina di Atena. I resti corrispondono alle parti in avorio facenti parte di una statua composta da avorio e legno dorato. I resti furono rinvenuti a Monte Calvo in Sabina all’interno di una villa appartenente alla ricca famiglia dei Bruttii Praesentes.

Collezione d’Arte Moderna e Contemporanea: il percorso museale le pone subito prima della Cappella Sistina, e la mostra permanente contiene opere di nomi internazionali di spicco come Van Gogh, Bacon, Dalì, Matisse e Chagall. Anche i nomi italiani sono estremamente celebri; tra i tanti, Marino Marini, Carlo Carrà, Giorgio de Chirico e Pericle Fazzini, con la prova della scultura “Resurrezione”, la cui versione finale sovrasta con i suoi venti metri di larghezza la sala delle udienze papali e può quindi essere ammirata spesso alle spalle di Papa Francesco.

Autrici: Caterina Grassi, Giuditta Versili Olmi e Elisa Del Santo

Non Fungible Token (NFT): cosa sono e a cosa servono

Digital chain. Blockchain technology concept.

Cosa sono gli NFT?

NFT sta per Non Fungible Token (token non fungibile).

Il termine “fungibile” si associa al denaro o alle criptovalute, come Bitcoin, EtherIn ecc, il che significa che possono essere scambiati l’uno con l’altro (un dollaro vale sempre un altro dollaro; un Bitcoin è sempre uguale a un altro Bitcoin) e divisi (ad esempio posso dividere 20 euro con due banconote da 10 euro).

Gli NFT sono costruiti utilizzando lo stesso tipo di programmazione della criptovaluta (la blockchain), ma è qui che finisce la somiglianza; infatti, il termine “NON fungibili” deriva dal fatto che ogni NFT ha una firma digitale che rende impossibile lo scambio o l’uguaglianza tra gli stessi, abilitando il concetto di scarsità (non riproducibilità) per gli oggetti digitali.

Un esempio può essere la carta d’identità di una persona, oppure l’etichetta di un prodotto al supermercato che certifica la provenienza dell’alimento, una clip NBA Top Shot ecc..

Sostanzialmente non sono reciprocamente interscambiabili, per cui ogni token è inseparabile dall’oggetto (solitamente digitale) che identifica. Quindi per tornare all’esempio di prima: un mio amico non può utilizzare la mia carta d’identità, perché questo oggetto (la mia carta d’identità) identifica esclusivamente me.

Ciò ha portato a una nuova valorizzazione di opere d’arte e collectibles, abilitando così un nuovo paradigma per la rappresentazione della proprietà nel mondo digitale.

Un NFT è una risorsa digitale che rappresenta oggetti del mondo reale come arte, musica, che subiscono un processo di digitalizzazione o oggetti già presenti nel mondo digitale come oggetti di videogames, immagini, video, musica.

Il co-fondatore di Twitter Jack Dorsey ha venduto il suo primo tweet in assoluto come NFT per oltre $ 2,9 milioni.

Questi oggetti vengono acquistati e venduti online, spesso con criptovaluta, e sono generalmente codificati con lo stesso software sottostante di molte criptovalute; svolgendo anche la funzione di un registro pubblico distribuito che registra le transazioni dei proprietari e tiene traccia di tutti i passaggi di mano. Partendo dal creatore stesso è possibile scorrere tutti i successivi proprietari, fino ad arrivare all’attuale. Questo meccanismo fornisce quindi una prova di autenticità e, al contempo, di proprietà.

A cosa servono gli NFT?

La tecnologia Blockchain e gli NFT offrono agli artisti e ai creatori di contenuti un’opportunità unica di monetizzare i loro prodotti. Ad esempio, gli artisti non devono più fare affidamento su gallerie o case d’asta per vendere la loro arte. Invece, l’artista può venderlo direttamente al consumatore come NFT, che gli consente anche di mantenere una parte maggiore dei profitti. Inoltre, gli artisti possono programmare royalties in modo da ricevere una percentuale sulle vendite ogni volta che la loro arte viene venduta a un nuovo proprietario. Questa è una caratteristica interessante poiché gli artisti generalmente non ricevono proventi futuri dopo la prima vendita della loro arte.

L’arte non è l’unico modo per fare soldi con gli NFT. Marchi come Charmin e Taco Bell hanno messo all’asta opere d’arte a tema NFT per raccogliere fondi per beneficenza.

  • Forbes advisor
  • CNN
  • Il sole 24 ore: Osservatorio Blockchain & Distributed Ledger
  • ibicocca.unimib.it Alberto Sormani

Verso la creazione del “Marijuana-test”

Photo by Aphiwat chuangchoem on Pexels.com

Tutti noi conosciamo il ben noto Etilometro, quello strumento utilizzato dalle forze dell’ordine per misurare la concentrazione di Etanolo (l’alcool che consumiamo quando beviamo vino, birra vodka ecc…) nel sangue tramite l’immissione di alito al suo interno. Alcuni di noi, sfortunatamente o meno, dipendentemente dai punti di vista e dalla situazione, hanno avuto anche a che farci.

Ebbene sì, pare proprio che alcuni scienziati dell’Università della California siano vicini dal trovare un modo per determinare e quantificare la presenza di THC (tecnicamente il delta-9-tetraidrocannabinolo), ovvero uno dei maggiori principi attivi della cannabis, all’interno dell’organismo in tempo reale attraverso un test rapido analogo a quello dell’alcool test.

Persino il principio di funzionamento è similare a quello di alcuni etilometri, come spiegano nel loro articolo Neil Garg, professore di chimica organica presso l’Università della California, e Evan Darzi, CEO di ElectraTect Inc. (startup dell’Università della California che lavora al progetto). Nei moderni etilometri la determinazione della quantità di Etanolo avviene tramite la misurazione della corrente elettrica prodotta dall’ossidazione dell’Etanolo stesso all’interno di una cella a combustibile (Una pila) che, utilizzata in appositi calcoli matematici, permette di risalire al valore preciso della sua concentrazione nel sangue.

Nel progetto di Garg, Darzi e dei ricercatori dell’ElectraTect, la tecnologia di base utilizzata è la stessa (mi riferisco al fatto che viene sfruttata una cella a combustibile come sensore) e sfrutta un processo di ossidazione del THC scoperto proprio da Garg e Darzi nel 2020.

Per il momento il progetto è in fase di perfezionamento, ma, personalmente, non credo che dovremmo aspettare molto prima di poter vedere notizie riguardanti l’uscita di questo nuovo strumento nei paesi in cui l’uso di cannabis è legale.

Non so voi cosa ne pensate, ma trovo rassicurante l’idea che un giorno saremo in grado di determinare in tempo reale la concentrazione di THC nell’organismo. Questo aiuterà a rendere le strade più sicure e permetterà alle forze dell’ordine di capire quale sia la reale situazione.

Infatti, con i test attualmente in uso non siamo in grado di avere risposte veloci benché meno eque a livello legale. Il THC è una sostanza che permane all’interno dell’organismo per settimane senza l’effettiva presenza di effetti psicotropi e questo può portare dunque ad un’errata o quantomeno viziata valutazione della reale colpevolezza. Con gli attuali metodi non è possibile sapere se, nel momento in cui la persona è stata fermata, questa era effettivamente sotto l’effetto della cannabis.

Le applicazioni comunque non si fermano ovviamente al solo campo della sicurezza stradale, ma si estendono anche a quello dell’indagine forense.

Come sempre vi lascio i link a tutti i riferimenti utilizzati per la scrittura di quest’articolo nonché il collegamento all’articolo originale:

  1. https://phys.org/news/2022-10-high-chemists-marijuana.html
  2. Di Huang et al, A Cannabinoid Fuel Cell Capable of Producing Current by Oxidizing Δ9-Tetrahydrocannabinol, Organic Letters (2022). DOI: 10.1021/acs.orglett.2c02289

MICROCREDITO

Photo by Pixabay on Pexels.com

Con l’approvazione del D.Lgsl. del 19 settembre 2012 n. 169, sono state recepite le novità introdotte nel Testo Unico Bancario (T.U.B.) sul microcredito. Quest’ultimo è uno strumento di sviluppo economico che inizialmente permetteva l’accesso ai servizi finanziari alle persone in condizioni di povertà ed emarginazione ma che oggi risulta molto diffuso anche nelle economie avanzate; infatti, dopo Francia e Romania, anche l’Italia ha emanato una legge sul microcredito, dimostrandosi all’avanguardia in Europa in materia di inclusione finanziaria e sociale.

Il microcredito viene definito come “credito di piccolo ammontare finalizzato all’avvio di un’attività imprenditoriale” ma non solo. A livello aziendale, tale forma di finanziamento può essere erogata, fino ad un massimo di 40.000 €, alle ditte individuali, alle società di persone, nonché alle società a responsabilità limitata semplificate (Srls) che siano costituite da meno di cinque anni. Restano, pertanto, escluse le società a responsabilità limitata, nonché le SpA. I soggetti beneficiari devono aver avuto, nei tre esercizi chiusi antecedenti la richiesta di finanziamento o dall’inizio dell’attività, se di durata inferiore, un attivo patrimoniale di massimo 300.000 euro, ricavi lordi fino a 200.000 euro e livello di indebitamento non superiore a 100.000 euro

La legge di bilancio 2022 prevede alcune novità fondamentali:

  • Aumento da 40.000 a 75.000 euro dell’importo massimo di finanziamento concedibile;
  • Estensione della durata massima dei finanziamenti a 15 anni, rispetto ai 7 anni attuali;
  • Possibilità di accesso anche per le società a responsabilità limitata per un importo massimo di 100.000 €;
  • Esclusione delle limitazioni riguardanti i ricavi, il livello di indebitamento e l’attivo patrimoniale dei soggetti finanziati.

Tuttavia, al fine di rendere operative tali novità, dovranno essere emanate le relative disposizioni attuative da parte del Ministero dell’Economia e delle Finanze (MEF), dopo aver consultato in merito Banca d’Italia.

Fonti:

https://www.microcredito.gov.it/cos-%C3%A8-il-microcredito.html

West Nile virus, quando la medicina non basta

All’inizio dell’estate si è diffuso l’allarme per la comparsa sulla scena sanitaria italiana di un apparente nuovo virus: il West Nile virus (WNV). Isolato per la prima volta nel 1937 nella provincia di West Nile in Uganda, il WNV è stato classificato come appartenente alla famiglia dei Flaviviridae: in particolare, è incluso nel complesso virale dell’encefalite giapponese insieme ad altri tre patogeni quali il St. Louis virus, il Murray virus e l’Alfuy virus.
La malattia indotta da WNV, riconducibile alle patologie “da vettore”, è veicolata dal genere di zanzara Culex; è una zoonosi che si presenta con febbre alta e mal di testa nei casi lievi, mentre può causare meningoencefaliti associate a fotofobia, paralisi flaccida o miastenia nei casi più gravi.
Gli aspetti clinici e sintomatologici riguardanti l’infezione da WNV hanno sempre raccolto il maggior interesse nello studio del virus, sebbene la correlazione che questo ha con l’ecosistema e come vi si coinvolge perfettamente siano aspetti cruciali per il controllo della malattia.
Essendo una zoonosi, quindi un’infezione trasmessa da un reservoir animale – in questo caso gli uccelli – all’uomo, il controllo e la regolazione dell’intero ecosistema potrebbe aiutare a ridurre il tasso di diffusione di WNV.
Il virus ha un ciclo vitale complesso nel quale l’uomo svolge il ruolo di dead-end host, ovvero l’ultimo ospite possibile nella catena d’infezione; la zanzara ematofaga Culex è il vettore responsabile del passaggio di WNV dal reservoir aviario all’uomo, perciò il monitoraggio della proliferazione di questo genere di insetto è altamente rilevante per il diffondersi della malattia.
Quando la zanzara si nutre di sangue animale infetto, contrae il virus che si concentra e moltiplica all’interno del suo intestino. Successivamente, il virus migra verso le ghiandole salivari da dove può essere iniettato nell’ospite secondario. L’azione immunosoppressiva delle proteine contenute nella saliva della zanzara favorisce una prima diffusione del virus nel torrente circolatorio del nuovo ospite.
Inizialmente non considerato rilevante clinicamente perché responsabile di infezioni lievi o subcliniche, negli ultimi anni i casi di WNV sono notevolmente aumentati sia nella popolazione umana che in quella equina, considerata un ottimo modello di monitoraggio della diffusione virale.
Le vie migratorie degli uccelli o il traffico illecito di animali possono aumentare il dinamismo dell’infezione portando il WNV in aree non endemiche.
S’instaura quindi una collaborazione fra le discipline mediche e quelle veterinarie.
Ma non solo: per la sorveglianza del virus è ugualmente cruciale il controllo dei cambiamenti climatici, in particolare il tasso di precipitazioni e l’aumento della temperatura, che favoriscono la proliferazione degli insetti vettori. Così come il turismo in aree endemiche e tratte commerciali possono essere responsabili della presenza di zanzare infette su aerei e navi.
Sebbene la diffusione mediata da vettore sia la più rilevante, l’infezione può essere anche trasmessa tramite trasfusioni di sangue infetto, trapianti d’organo o emodialisi.
L’idea di correlazione fra vari aspetti della malattia viene descritta dal termine transbondary disease che ha come base e sfondo il più vasto concetto di One Health dove si considera la salute umana, animale ed ambientale strettamente dipendente l’una dall’altra.
In Europa, la diffusione di WNV è stata fortemente influenzata dalle coltivazioni di riso e dall’acqua stagnante che promuovono la proliferazione delle zanzare Culex.
Nel continente americano, l’epidemia del 1999 negli USA ha avuto come concausa le alte temperature estive e le abbondanti precipitazioni; uno scenario simile è stato documentato anche in Romania.
Più recentemente, nel 2010, in Australia è stato registrato un aumento della proliferazione della zanzara Culex annulirostris a seguito di un vasto allagamento ad est del paese considerato la causa della successiva impennata di infezioni da WNV.
Ad oggi non esiste alcun vaccino disponibile per l’uomo e l’unico metodo di prevenzione attuabile contro la malattia è rappresentato dalla vaccinazione dei cavalli ed il controllo della proliferazione della zanzara vettore.


L’importanza della collaborazione tra discipline diverse per la salvaguardia della salute pubblica risuona sempre più intensamente all’interno dei laboratori di tutto il mondo; l’integrazione di dati ed aspetti dello stesso fenomeno può aiutarci a comprenderlo ed a prevenirlo nei migliori dei modi.

Votare è un tuo diritto, ma non se sei fuorisede

Ad oggi in Italia sono circa 5 milioni le persone che vedono il loro diritto di voto ostacolato dal tempo e la distanza che separa il loro luogo di lavoro o studio dal seggio elettorale a loro assegnato. Nonostante ripetuti tentativi di garantire questo diritto, ad oggi non c’è ancora una soluzione proposta che sia stata approvata

Persona che vota – Stockphotos


Costituzione della Repubblica Italiana – Art. 3

Tutti i cittadini hanno pari dignità sociale e sono eguali davanti alla legge, senza distinzione di sesso, di razza, di lingua, di religione, di opinioni politiche, di condizioni personali e sociali.

È compito della Repubblica rimuovere gli ostacoli di ordine economico e sociale, che, limitando di fatto la libertà e l’eguaglianza dei cittadini, impediscono il pieno sviluppo della persona umana e l’effettiva partecipazione di tutti i lavoratori all’organizzazione politica, economica e sociale del Paese.

I numeri
Esclusi dal voto, sono quelle persone fuori sede ma non troppo, studenti e lavoratori che sono lontani da casa ma non abbastanza (nel senso che non si trovano all’estero). Il libro bianco sull’astensionismo “Per la partecipazione dei cittadini. Come ridurre l’astensionismo e agevolare il voto” è un documento realizzato dalla Commissione di esperti per conto del Governo per indagare le cause dell’astensionismo e proporre soluzioni in grado di arginare questo fenomeno ed è stato completato pochi mesi fa. Secondo quanto riportato, sono quasi 5 milioni gli elettori che lavorano o/e studiano in luoghi diversi dalla Provincia (o Città metropolitana) di residenza. 5 milioni di persone sono circa il 10% del totale dei cittadini italiani aventi diritto di voto. Di questi, 1,9 milioni sono quelli che impiegherebbero oltre 4 ore, tra andata e ritorno, di viaggio tra strada e autostrada. Quasi 700 mila elettori (circa il 14%) sono quelli che affronterebbero un viaggio, sempre tra andata e ritorno, complessivamente superiore alle 12 ore.

I costi
È chiaro quindi che sono tanti i lavoratori e gli studenti fuori sede che devono impiegare molte ore per poter esercitare un diritto fondamentale, così come sono molti i costi in termini di denaro oltre che di tempo. Se un lavoratore, dopotutto, uno stipendio ce l’ha, gli studenti invece devono fare perlopiù affidamento sulle proprie risorse e i rimborsi parziali sul costo del biglietto del viaggio. Parziali, appunto, perché coprono solo una percentuale del costo (circa il 60-70% per i treni, 60% per i traghetti e 40% per l’aereo in media) e comunque non sono inclusi gli spostamenti necessari per raggiungere piccoli centri abitati, molto spesso mal collegati ai grandi centri urbani coi mezzi pubblici. Insomma questi sconti non bastano, i prezzi risultano comunque molto alti, non sono coperti davvero tutti gli spostamenti e i termini prevedono condizioni a volte troppo complesse che spingono a desistere della loro fruizione.

(Se il voto deve essere “uguale” allora lo deve essere anche a parità di condizioni economiche: e quindi gratuito per tutti. Infine, si tratta, in ogni caso, di un costo per la comunità oltre che di un costo privato: e se si capisce perché un cittadino debba giustamente contribuire con le proprie imposte per rendere possibile le elezioni, più difficile giustificare l’obolo per le spese logistiche di altri elettori.)

fuorisède (o ‘fuòri sède’) locuz. usata come agg. e s. m., invar. – Detto di studenti che frequentano scuole o istituti universitarî in località diversa (spesso molto distante) da quella di residenza; meno spesso con uso più generico, di persone che lavorano in località diverse da quella della residenza abituale.” – Treccani

Italia VS Europa
Partiamo da chi, come noi, non prende in considerazione una norma sul voto dei fuori sede: sono solo due paesi, Cipro e Malta, due stati insulari con dimensioni decisamente più ridotte rispetto all’Italia e dove, nel peggiore dei casi, per raggiungere il proprio seggio elettorale ci vogliono al massimo 3 ore di viaggio in macchina. Seppure nulla vieti anche a questi paesi di considerare il voto fuori sede, certamente è più comprensibile perché fino ad oggi non sia stato richiesto e considerata a gran voce.

E gli altri Paesi? Come spiega uno studio realizzato dal comitato “Iovotofuorisede” e dall’associazione The Good Lobby, in Europa molti paesi hanno adottato possibili soluzioni. In Austria, Germania, Irlanda, Regno Unito, Spagna, Svizzera viene praticato il voto per corrispondenza; in Belgio, Francia, Paesi Bassi si può votare delegando un’altra persona a farlo; in Danimarca, Estonia, Norvegia, Portogallo, Svezia, esiste il voto anticipato in un luogo diverso da quello di residenza; infine il caso unico e innovativo dell’Estonia dove si può votare anche elettronicamente.

I tentativi di normare il voto fuori sede (spoiler: finita male)
Alla commissione Affari costituzionali della Camera negli ultimi anni sono state depositate cinque proposte di legge per regolamentare il diritto di voto in un comune diverso da quello della propria residenza. Una proposta sulla buona strada era quella a prima firma Marianna Madia, deputata del Partito Democratico, e supportata dalla campagna Voto Dove Vivo. La proposta prevedeva che nei referendum gli elettori fuorisede potessero votare nel seggio del Comune di domicilio, presentando una domanda in via telematica tramite SPID, con allegato il contratto di lavoro o il certificato d’iscrizione all’università. Nelle elezioni Politiche per Camera e Senato e nelle elezioni per il Parlamento Europeo invece gli elettori fuorisede avrebbero potuto votare per corrispondenza senza spostarsi (come per gli elettori all’estero, ma con il voto conteggiato come nella circoscrizione elettorale di residenza). Infine, il Parlamento avrebbe potuto delegare il Governo ad avviare una sperimentazione di voto elettronico in ottica di sostituzione del voto per corrispondenza.
Ma la proposta, appunto, prevedeva e non prevede più perché, con la caduta del Governo, l’iter di approvazione si è interrotto e dovrà iniziare da capo. Anche questa volta, non voto fuori sede. Per quanto ancora?

Fonte
Fonte


Fonte

Tecnologia del DNA ricombinante

La tecnologia del DNA ricombinante rientra nelle tecniche utilizzate in biologia molecolare e/o genetica molecolare per manipolare molecole di acidi nucleici. Viene frequentemente sovrapposta al concetto generico di ingegneria genetica.

Una delle applicazioni più comuni nell’ambito biotech è l’espressione di proteine ricombinanti; con proteine ricombinanti vanno intese proteine prodotte sfruttando tecniche di ricombinazione del DNA in vitro. Spesso, le proteine ricombinanti hanno delle caratteristiche diverse rispetto a quelle di partenza come, ad esempio, mutazioni che ne incrementano o riducono l’attività; chiaramente esistono varie tipologie di proteine ricombinanti in relazione ai diversi tipi di obiettivi dei progetti di ricerca.

L’urbanistica rinascimentale: Ferrara tra classicità e innovazione

Con l’articolo di oggi, vogliamo fornirvi un approfondimento sulla conformazione di una città rinascimentale che rappresenta un caso piuttosto unico nel suo genere: stiamo parlando di Ferrara.
La pianta di Ferrara è stata infatti una dei più famosi esempi di un’operazione massiva di rinnovo cittadino. La città, a partire dal 1492, è stata oggetto di un’importante “addizione”, ovvero di un ampliamento voluto fortemente dal duca Ercole I D’Este.
Prima di parlare del periodo Estense, un po’ di storia;
Ad oggi, non vi sono molte notizie sull’urbanistica originale di Ferrara. Il nome Ferrara pare nato nel Medioevo, certamente quindi posteriore all’epoca romana, che viene spesso identificata come epoca di fondazione. Gli studiosi, in base a ragioni topografiche, etniche, storiche e anche mitologiche, hanno fatto anche l’ipotesi di una nascita di Ferrara con l’origine pelasgica, cioè nata da una popolazione addirittura anteriore a quella greca. I Pelasgi, nome con il quale i greci identificavano i loro avi, l’avrebbero fondata con il nome di Massalia: così verrebbe indicata da Polibio nelle sue Storie.
Alcune cronache sostengono che qui più tardi i Romani avrebbero istituito il cosiddetto “Forum Alieni”, una località che, si presume, rappresentasse il centro cittadino. Tacito fa questo nome citando un luogo al di là di un fiume, a sud di Padova ed Este. Il fiume in questione fu attraversato dall’esercito di Vitellio, nel 69 d.C., con l’intenzione di fermare l’avanzata delle legioni di Vespasiano provenienti dall’Illiria e dalla Dalmazia. Ci sono molte dispute sulla veridicità di questa ipotesi come prima collocazione della città.
È comunque certo che vi era una colonia romana in corrispondenza dei villaggi vicini di Voghenza e Voghiera; si pensa che l’ascesa di un’altra colonia potente abbia ostacolato la crescita di Voghenza, favorendo invece lo sviluppo di un ipotetico embrione di Ferrara, che si trovava in una posizione decisamente vantaggiosa, ossia più nell’entroterra ma alla punta San Giorgio, la prima e più antica biforcazione del Po. Voghenza anche in seguito rimase una cellula importante di Ferrara, e vi si collocarono anche alcuni possedimenti degli Este, per esempio la loro residenza in campagna, la Delizia di Belriguardo.
Adesso, un rapido salto in avanti; all’epoca in cui Ercole I sale al governo, ossia alla morte del fratello Borso d’Este nel 1471. Ferrara è una città di impianto medievale, e la famosa Certosa e le “delizie”, ville delle famiglie nobili con cortili interni e ricchi giardini, sono lontane e fuori dalle mura. L’ordine di pianta conserva ancora la disposizione dei cosiddetti “cardine “e “decumano”, che conducono ai bastioni principali e alle porte della città. Ferrara è reduce da un’amministrazione che da secoli deve tener conto della protezione territoriale e delle campagne belliche.
Il ducato si trovava contrapposto alla temutissima e potentissima Repubblica di Venezia, con la quale la pace era difficile da mantenere per ragioni di spartizione territoriale. Venezia aveva interessi che si scontravano con le possessioni ferraresi, e i conflitti furono evitati grazie ai buoni rapporti che Borso d’Este seppe mantenere fino a un inevitabile tracollo. Con la guerra di Ferrara, si rimettono in gioco i poteri legati alla Congiura dei Pazzi: il papato, il regno di Napoli e i vari ducati del nord, tra cui quello di Mantova e di Milano, retto da Ludovico il Moro, il quale giocherà un ruolo importante e controverso nella stipulazione dei trattati di pace. Dopo il conflitto, il duca Ercole I gli darà in sposa una delle sue due figlie, e farà delle alleanze matrimoniali uno strumento di pace importante. Una volta duca, lui stesso si sposa con Eleonora d’Aragona, figlia del re di Napoli, e per il secondo matrimonio di suo figlio sceglie Lucrezia Borgia, figlia del papa Alessandro VI.
E’ ben noto che all’epoca del ducato di Ercole, Ferrara non è estranea alla vita culturale.
Borso d’Este fu un duca illuminato in molti aspetti: a lui vanno i meriti di aver coltivato una scuola pittorica molto celebre alla corte ferrarese, di cui sono protagonisti il Cossa, Ercole de’ Roberti e Cosmè Tura. Inoltre, fu proprio lui a creare un primo ampliamento della pianta cittadina. Era interessato alle arti e ne capiva l’importanza, ma le finanze che era disposto ad elargire in questo ambito erano contenute. Borso era un uomo d’azione, amante della caccia e della guerra, e forse usava il mecenatismo più come un accessorio che come una risorsa.
Suo fratello Ercole era ben diverso; non fu una figura politica particolarmente brillante, ma aveva un’educazione estremamente colta, e si ritrovò nella fortunata situazione di poter mantenere uno stato piccolo ma solido, già rinomato per le figure artistiche che vi avevano dimorato.
Ercole decise di dare una nuova veste alla città, per renderla degna di un duca al passo coi tempi e per creare un’impronta che potesse rimanere nei secoli a venire. Per attuare il progetto, si affidò all’architetto Biagio Rossetti, nominato ingegnere di corte dopo la dipartita del precedente architetto ducale, Pietro Benvenuti dagli Ordini, che gli aveva fatto da maestro.
Rossetti progetta una città bella e soprattutto funzionale.
Il piano, estremamente avveniristico, prevede un raddoppio della superficie cittadina, e implementa un’integrazione importante del tratto che collega il Castello Estense alla Certosa. La nuova sezione della città è verdeggiante, e viene inglobata nelle mura cittadine come una sorta di Central Park in piccolo, con l’intenzione di servirsi del terreno per rifornire la corte e i cittadini dei prodotti delle colture senza dover uscire dai bastioni.
L’odierna Piazza Ariostea, poco lontana dalla Certosa, era destinata a diventare il fulcro dell’addizione di Ercole, e fu denominata Piazza Nuova, proprio per contrapporla all’antica piazza del mercato, sul lato meridionale della Cattedrale. Non acquistò però mai importanza per i commerci, ma rimase una grande area libera da costruzioni, con funzione di parco pubblico.
Sulle direttrici (Corso Ercole I d’Este e Corso Porta a Mare) sono posizionati i palazzi istituzionali e le residenze signorili, anch’essi rimodernati o costruiti ex-novo. Uno su tutti, Palazzo dei Diamanti, costruito per il fratello di Ercole, Sigismondo, caratterizzato dalla decorazione di facciata con fasce di punte di diamante in bugnato marmoreo, che giocano con luci e ombre creando bellissimi effetti ottici.
Non solo: proprio come per Palazzo Medici Riccardi a Firenze situato in via Larga (oggi via Cavour), il Castello Estense e i palazzi erano collegati direttamente alle residenze nobiliari in campagna tramite i grandi corsi, che permettevano ai duchi e alle loro famiglie di poter uscire rapidamente dalla città.
Dal Castello Estense si ammira la grandiosità del Corso Ercole I d’Este, fulcro dell’Addizione Rinascimentale. Era anticamente denominato “Via degli Angeli”, dalla chiesa dedicata a S. Maria degli Angeli, che si trovava lungo il suo corso. Costituisce uno dei due assi portanti dell’Addizione Erculea. Privo di esercizi commerciali ed affiancato da bellissimi palazzi, mantiene ad oggi la caratteristica di arteria residenziale che il duca le volle conferire. Il suo punto focale è il Quadrivio degli Angeli, all’incrocio con l’altro asse dell’Addizione (Corso Porta Mare – Corso Biagio Rossetti – Porta Po), sottolineato dalla presenza di tre palazzi riccamente decorati.
L’ampliamento Erculeo fu ostacolato nuovamente dai conflitti con Venezia, ma il lavoro aveva già dato un esempio assolutamente originale di architettura che favorisse la popolazione, che potesse rendere vivibile una città oltre che piacevole alla vista.
Del resto, Rossetti si ispirò al Re Aedificatoria di Leon Battista Alberti per la progettazione della nuova Ferrara, tenendo conto dei suoi grandi concetti di durevolezza, utilità e bellezza (“firmitas, utilitas, venustas”) che avevano già conquistato Firenze e Venezia. Peraltro, il famosissimo trattato edilizio dell’Alberti era stato commissionato da Leonello d’Este, già duca di Ferrara e fratellastro di Ercole, ed è il primo trattato di teoria dell’architettura della storia moderna.
Per il suo lavoro Biagio Rossetti viene considerato il primo urbanista d’Europa, ed è proprio nella visione Erculea di città ideale che alcuni dei più grandi artisti di tutti i tempi hanno trovato il loro spazio, dai celeberrimi Cossa e Tura a De Chirico e Mantovani.

Link da citare:
https://gallica.bnf.fr/ark:/12148/btv1b53028075q/f1.zoom
Link treccani
https://www.ferraraterraeacqua.it/it/scopri-il-territorio/itinerari-e-visite/itinerari-storici-culturali/l
a-citta-di-ercole-i-deste

Elisa, Caterina, Giuditta

In Libia ci sono nuovi disordini mentre il parlamento brucia

Manifestanti danno fuoco all’edificio del parlamento libico dopo le proteste contro il fallimento del governo a Tobruk, in Libia, il 1 luglio.
Immagine di picture alliance / REUTERS | Stringer ©

La sera del 1° luglio 2022, pochi giorni dopo la scadenza dei 18 mesi previsti dalle Nazioni Unite per le elezioni in Libia, i cittadini del Paese avrebbero dovuto inaugurare un nuovo governo. Invece, l’edificio del Parlamento di Tobruk, una delle città principali della Libia orientale, è bruciato mentre i libici ballavano per festeggiare. Questo non è ciò che prevedeva la roadmap delle Nazioni Unite, ma molti osservatori che hanno familiarità con il piano hanno sempre suggerito che sarebbe andata in questo modo. Simili manifestazioni hanno poi avuto luogo anche in altre città libiche con lo stesso copione: cittadini comuni, esausti e arrabbiati per l’instabilità economica e politica iniziata dopo la rivoluzione del 2011 (la caduta del regime dittatoriale di Gheddafi) che si è amplificata con l’aggravarsi delle ultime dinamiche globali tra cui Covid-19, emergenza climatica e aggressione russa contro l’Ucraina.

Quale è la situazione politica attuale? In Libia non esiste un governo, esistono i governi, due per l’esattezza. Uno istituito a marzo 2021 col supporto delle Nazioni Unite e con sede a Tripoli, nato come governo di transizione con a capo il primo ministro Abdelhamid Dbeibah che avrebbe dovuto portare il paese a elezioni il dicembre 2021, elezioni che non si sono però ancora tenute. Il governo parallelo invece ha sede a Tobruk, città nell’est del paese, e guidato da Fathi Bashagha, il premier designato dal Parlamento libico. Bashagha è l’ex ministro degli Interni nel governo riconosciuto dall’ONU e ora è invece fortemente sostenuto dal maresciallo Khalifa Haftar, capo della Libyan National Army (LNA). Due governi che spaccano un paese in due, faticando quindi a dare un governo stabile e democratico ai cittadini libici. Ma se la stabilità politica non è buona, l’economia non se la passa meglio. E questo peggiora la situazione economica del paese tanto che nel 2021 il report di ReliefWeb per l’OCHA (Ufficio delle Nazioni Unite per gli affari umanitari) calcolava per la Libia, a partire dal 2011, una perdita economica potenziale per pari a circa 160 miliardi di euro.  

Recentemente la situazione economica è peggiorata con la chiusura degli impianti petroliferi nell’Est del paese da parte dei sostenitori del governo di Bashagha nel tentativo di fare pressione sul governo di Dbeibah affinché si dimetta. Un danno di circa 60 milioni di dollari al giorno e una produzione che registra un -85% rispetto al periodo precedente. La mancanza di entrate per un paese fortemente dipendente da queste risorse naturali ha portato, secondo l’ONU, oltre 800mila persone ad aver bisogno di assistenza umanitaria.

Ma ci sono tante altre persone, oltre ai cittadini, che stanno subendo gravemente questa assenza di governo e di responsabilità politica: i migranti. Provenienti da oltre 40 paesi e detenuti in veri e propri lager dove migliaia di persone vivono in condizioni disumane mentre aspettano che le milizie, l’Unione Europea e le Nazioni Unite decidano il loro destino. Ufficialmente amministrati dal governo libico, in realtà sono le milizie a controllarli, torturarli e a sfruttarli come fonte di guadagno certa. La Libia è ancora un caldo inferno, politico, economico e umanitario, in cerca di una rotta verso la salvezza.  

Fonte
Fonte
Fonte

Batteri per produrre carburante per l’aviazione

Photo by Edward Jenner on Pexels.com

Per carburanti per l’aviazione si intende tutta quella serie di prodotti, derivanti dalla distillazione frazionata del petrolio, utilizzati per alimentare i velivoli. Il carburante o il componente maggiormente utilizzato per questo scopo al momento è il cherosene che come tutti i prodotti di natura fossile è destinato a scarseggiare sempre di più fino ad esaurirsi completamente; ed è per questo che, come avrete spesso sentito, è molto importante riuscire a trovare delle sostanze alternative che siano il più efficienti e il più sostenibili possibile.

Proprio riguardo a questo argomento il 30 Giugno di quest’anno è uscito sulla rivista Joule un articolo scritto dai ricercatori del Lawrence Berkeley Lab dove si può leggere di un metodo per produrre un carburante alternativo per l’aviazione attraverso l’ottenimento di una molecola molto singolare prodotta dal metabolismo di batteri che si trovano comunemente sul suolo.

Ma partiamo dalle basi ponendoci una domanda- Che caratteristiche deve avere una molecola per essere utilizzata come carburante ?

Bhè prima di tutto è necessario che questa abbia una temperatura di innesco della combustione non proibitiva e in più quando questa inizia è importante liberi più energia possibile. Energia che verrà poi convertita in movimento (più precisamente in energia meccanica) dal motore .

Entrando invece nello specifico la molecola studiata dagli scienziati del Lawrence Berkeley Lab è una sostanza chiamata Jawsamycin (probabilmente Jawsamicina in italiano) in onore al film Jaws (lo Squalo) data la sua singolare struttura che ricorda proprio un’arcata dentale di squalo. Tale molecola viene normalmente prodotta dal metabolismo di batteri chiamati streptomyces demolendo il glucosio e gli amminoacidi assorbiti in frammenti che poi vengono “riassemblati” per formare tramite l’ausilio di determinati enzimi la sostanza in esame.

Ma come mai questa Jawsamycin è così interessante come possibile carburante ?

Come detto prima per essere un buon carburante una sostanza deve liberare una grande quantità di energia quando bruciata e in virtù della sua struttura, per la precisione grazie ai “denti” (ovvero ai ciclopropani) che la compongono, questa molecola è in grado di assolvere a questo ruolo molto efficientemente. Se vi state chiedendo il perché la risposta è la seguente:

In chimica (ma in scienze naturali in generale) quando per generare un sistema è necessario fornire molta energia ai costituenti, solitamente “rompere” il sistema, ovvero in questo caso la molecola, libera molta energia a sua volta. Per semplificare molto la comprensione immaginate che i “denti” siano come una sorta di molle compresse che quando rilasciate, grazie alla combustione, liberano l’energia immagazzinata dalla compressione stessa.

Come spiega Pablo Cruz-Morales, l’autore principale dell’articolo, il prodotto ha bisogno di essere trattato per poter raggiungere un’adeguata temperatura di innesco ma una volta partita la combustione questa dovrebbe essere in grado di mandare perfino un razzo nello spazio.

sempre Cruz-Morales, dati i promettenti risultati della ricerca, spera che il suo team insieme ai ricercatori del dipartimento per l’energia siano in grado un giorno di portare il processo su scala industriale in modo che il loro carburante alternativo possa essere utilizzato al più presto per i velivoli e non possiamo che dargli ragione dato che come potete bene immaginare e come accennato a inizio articolo, prima o poi inevitabilmente le risorse fossili finiranno.

Vi lascio come sempre i riferimenti alle fonti utilizzate e all’articolo originale:

  1. https://phys.org/news/2022-06-bacteria-unusual-triangular-molecule-jet.html
  2. Jay D. Keasling, Biosynthesis of polycyclopropanated high energy biofuels, Joule (2022).  DOI: 10.1016/j.joule.2022.05.011www.cell.com/joule/fulltext/S2542-4351(22)00238-0

La NASA investe nella ricerca nucleare per generare energia in ambiente extraterrestre

La produzione di energia sulla superficie lunare o marziana sarà uno dei principali elementi da prendere in considerazione per lo sviluppo e il consolidamento di attività umane nelle missioni di esplorazione e colonizzazione dei prossimi decenni. La NASA si sta già muovendo in tal senso, investendo nella ricerca di un sistema che possa generare sufficiente energia in ambienti ostili, ossia privi delle condizioni tipiche che avremmo sulla Terra.
Recentemente infatti, l’agenzia spaziale americana ha finanziato tre imprese private con 5 milioni di dollari ciascuna per lo sviluppo preliminare di microreattori a fissione nucleare, con l’obiettivo di avere un prototipo funzionante entro la fine del decennio.

La scelta è ricaduta sull’opzione nucleare per vari motivi. Un tale generatore può fornire potenza elettrica in maniera continua, indipendentemente dalle condizioni ambientali, bypassando problemi che si presentano con l’utilizzo di pannelli solari come la necessità di illuminazione, non sempre garantita. Inoltre, i pannelli solari sono soggetti a degradazione e la potenza elettrica erogata diminuirebbe sensibilmente con gli anni a seconda del tipo di esposizione ambientale.

I microreattori quindi sarebbero in grado di fornire 40 kW di potenza elettrica in maniera affidabile e funzionerebbero esattamente come i reattori a fissione nucleare terrestri, con il vantaggio di essere trasportabili, di avere una vita operativa di almeno 10 anni senza ricambio del combustibile e la possibilità di essere integrati con un sistema di pannelli solari di supporto, in modo da differenziare l’utilizzo delle fonti energetiche di una ipotetica futura colonia.

Illustrazione concettuale di un possibile microreattore a fissione nucleare in ambiente lunare. Fonte: NASA

Le aziende individuate per la ricerca sono le seguenti:

  • Lockheed Martin, impresa statunitense attiva nei settori dell’ingegneria aerospaziale e della difesa con sede a Bethesda (Maryland), che svilupperà il progetto in collaborazione con BWXT e Creare.
  • Westinghouse, società statunitense costruttrice di apparecchiature elettriche civili e ferroviarie, che lavorerà al progetto insieme ad Aerojet Rocketdyne.
  • IX of Houston, una joint venture fra Intuitive Machines e X-Energy. L’azienda lavorerà al progetto in collaborazione con Maxar e Boeing.

Le tre imprese hanno firmato un contratto di 12 mesi per lo sviluppo di un design preliminare dei microreattori e allo scadere del termine solo uno verrà scelto come candidato per uno sviluppo più approfondito, così da procedere alla realizzazione di un prototipo adatto al lancio nello spazio.

La ricerca su simili sistemi nucleari contribuirà a un innumerevole serie di missioni di esplorazione e colonizzazione, sostenendo lo sviluppo anche della propulsione nucleare. Il know-how acquisito nel rispettare gli stringenti requisiti dell’ambiente spaziale porterà anche enormi benefici all’industria nucleare terrestre, in quanto le tecnologie spaziali fanno spesso da apripista per innovazioni in molti altri settori tecnologici.

Fonti:
https://www.powermag.com/nasa-picks-three-nuclear-power-concepts-for-demonstration-on-the-moon/
https://www.energy.gov/ne/articles/what-nuclear-microreactor

Prima terapia genica contro l’emofilia A grave

Photo by Martin Lopez on Pexels.com

EMA (European Medicines Agency) ha raccomandato il rilascio all’immissione in commercio di Roctavian (valoctocogene roxaparvovec) per il trattamento dell’emofilia A grave in adulti che non sviluppino inibitori del fattore VIII (autoanticorpi prodotti dal sistema immunitario del paziente che rendono meno efficaci i medicinali a base di fattore VIII) e nessun anticorpo contro il virus AAV5 (vettore adeno-virale con all’interno il gene del fattore VIII).

Ma più nel dettaglio, cosa è l’emofilia A e in cosa consiste la terapia genica con Roctavian?

I pazienti con emofilia A non possono produrre fattore VIII (una proteina essenziale necessaria per la coagulazione del sangue) e, se ad esempio sono sottoposti ad intervento chirurgico o in seguito ad evento traumatico, risultano più inclini ad un sanguinamento prolungato. L’emofilia A è una malattia rara debilitante che colpisce circa 0,7 persone su 10.000 in Europa. Può essere fatale quando si verifica sanguinamento nel cervello, nel midollo spinale o nell’intestino. Le terapie attualmente autorizzate per il trattamento dell’emofilia A sono le cosiddette “protein replacement therapies”: farmaci costituiti principalmente da fattore VIII che vengono somministrati in sostituzione della proteina mancante. I trattamenti ad oggi disponibili richiedono una o più iniezioni periodiche (di solito alla settimana o mensili) e durano tutta la vita.

Roctavian è la prima terapia genica (link di InforPedia “Terapia Genica” -> terapia genica) a trattare l’emofilia A. Il principio attivo di Roctavian, valoctocogene roxaparvovec, si basa su un virus adeno-associato AAV che è stato modificato per non essere virulento e non creare malattie nei pazienti. Il virus (link di InforPedia “Virus” -> virus) contiene il gene per il fattore VIII; una volta somministrato a un paziente come infusione una tantum, il virus “porta” il gene del fattore VIII nelle cellule del fegato, consentendo loro di produrre il fattore VIII mancante. Questo aiuterà il sangue a coagulare più facilmente, a prevenire e/o ridurre gli episodi di sanguinamento. Non è ancora noto per quanto tempo durerà l’effetto del trattamento da questa singola infusione in un singolo paziente.

La raccomandazione di EMA riguardo la terapia genica con Roctavian si basa sui risultati di uno studio non randomizzato di fase 3 (studio principale) su 134 pazienti di sesso maschile con emofilia A senza una storia di inibitore del fattore VIII e senza anticorpi preesistenti contro AAV5. Due anni dopo la somministrazione, i dati di efficacia hanno mostrato che la terapia ha aumentato significativamente i livelli di attività del fattore VIII nella maggior parte dei pazienti. I tassi di sanguinamento sono stati ridotti dell’85% e la maggior parte dei pazienti (128) non ha più avuto bisogno della terapia sostitutiva con fattore VIII. Con Roctavian è stata riportata epatotossicità (danno epatico), un effetto indesiderato comune dovuto alla reazione immunitaria indotta da queste terapie geniche basate su AAV e caratterizzata finora da un aumento dei livelli di un enzima epatico chiamato ALT, alanina aminotransferasi (l’epatotossicità potrebbe essere trattata con successo con corticosteroidi). Altri effetti collaterali comuni includono mal di testa, dolori articolari e nausea.

La raccomandazione all’autorizzazione in commercio è stato promosso dal PRIority MEdicines (PRIME), un programma di EMA che, fornendo un solido supporto scientifico e normativo, accelera lo sviluppo di farmaci innovativi e salvavita dai quali i pazienti potrebbero trarre immediati benefici. Nella valutazione dei dati disponibili, il Comitato per le Terapie Avanzate (CAT), il comitato di esperti dell’EMA per i medicinali a base cellulare e genetica, ha rilevato che i benefici di Roctavian superavano i possibili rischi nei pazienti con emofilia A. Il CHMP, il Comitato per i Medicinali Umani dell’EMA, ha concordato con il Comitato per le Terapie Avanzate CAT e ha raccomandato l’approvazione di questo medicinale.

Il parere sarà ora trasmesso alla Commissione Europea, la quale dovrà decidere se procedere con l’autorizzazione all’immissione in commercio a livello dell’UE. Una volta rilasciata l’autorizzazione all’immissione in commercio, le decisioni in merito al prezzo e al rimborso avranno luogo a livello di ciascuno Stato membro, tenendo conto del ruolo o dell’uso potenziale di questo medicinale nel contesto del sistema sanitario nazionale di tale paese.

Fonte: EMA (European Medicines Agency)

Link

FINTECH

Il termine FinTech indica l’innovazione finanziaria resa possibile dall’innovazione tecnologica, che può comportare la creazione di nuovi modelli di business, processi, prodotti o operatori di mercato. I cambiamenti in atto nei mercati dei servizi finanziari, guidati dalla tecnologia, hanno una portata politico-strategica ben più profonda e vasta di un mero ridisegno di strutture economiche specialistiche (mercati e intermediari finanziari, in primis). Oggi la tecnofinanza conta più di 1.500 startup in tutto il mondo le quali erogano servizi sostanzialmente simili a quelli della finanza tradizionale. La vera novità della Fintech, però, va ben oltre la semplice conversione online della tradizionale offerta bancaria, in quanto è rappresentata dalla creazione e gestione delle valute elettroniche come, per esempio, il Bitcoin e a tutta la rete Blockchain.

Fonti: CONSOB, Wall Street Journal Italia

Trìttico

La parola “trìttico” deriva dal greco antico che significa “triplice, piegato in tre”. Nella Roma antica, e in Grecia, era un elemento scrittorio usato per note e appunti, composto da tre tavolette, per lo più di legno e d’avorio, articolate mediante cerniera e ripiegabili l’una sull’altra.
Questo concetto con il passare del tempo si è allargato andando a toccare altri tipi di campi, come ad esempio nella storia dell’arte, che va ad indicare un’opera pittorica o scultorea divisa in tre parti, che possono essere congiunte tramite delle cerniere laterali o da un piedistallo detto predella.
L’opera pittorica può essere completata da una parte soprastante detta cimasa.
In epoca Medievale questa opera pittorica veniva utilizzata nelle chiese in particolare sull’altare dove troviamo rappresentate scene tipicamente evangeliche: la Madonna in trono insieme al Bambino (celebri sono quelli di Masaccio), la Natività (trittico di Portinari).
Il trittico diventa tanto l’opera divisa in tre parti quanto un insieme di tre opere in qualche modo collegate.

Caterina, Giuditta, Elisa.

Schermi al DNA

Parto chiedendo subito scusa per il titolo perché ciò di cui parleremo fa si uso di DNA ma non è né il solo componente né il principale utilizzato per mettere insieme questo simpatico componente tecnologico che, in accordo con l’argomento, potrebbe trovare applicazione nella produzione di pixel per schermi.

Lo studio in questione, portato avanti dalla collaborazione dei gruppi di ricerca di Anton Kuzyk e Juho Pokki dell’Università di Aalto, vede l’utilizzo di nanoparticelle d’oro (per la precisione nanocilindri) ,ricoperte di particolari molecole di DNA, sospese in un gel, per la produzione di un sistema in grado si sfruttare la particolare caratteristica dei nanocilindri di riuscire a selezionare le lunghezze d’onda trasmesse (o più semplicemente parlando di riuscire a cambiare il colore della luce che arriva ai nostri occhi) in base alla loro orientazione all’interno del gel stesso quando illuminate da luce polarizzata.

Quindi come preannunciato all’inizio dell’articolo il DNA non è l’ingrediente principale, o meglio non è lui il vero responsabile della produzione del colore, anche se il suo ruolo è piuttosto cruciale. Difatti sono le molecole di DNA ad essere responsabili dell’orientazione delle nanoparticelle all’interno del gel e che quindi permettono di sfruttare quest’ultime per produrre vari colori in base alle condizioni. Ma di quali condizioni stiamo parlando ?

Essenzialmente di temperatura.

Dovete sapere che le molecole di DNA ad una certa temperatura (detta temperatura di melting) vanno incontro ad un processo noto come denaturazione nel quale i due filamenti che lo compongono si separano; una volta che la temperatura ritorna a valori più bassi della temperatura di meeting i due filamenti si riaccoppiano ritornando allo stato di partenza.

Questa proprietà è stata abilmente sfruttata dagli scienziati di Aalto perché come potete immaginare questo cambiamento nella struttura del DNA che ricopre le particelle provoca anche variazioni nella loro orientazione all’interno del gel (e quindi il colore visto), variazioni che sono tra l’altro reversibili e quindi più facilmente “controllabili”. In più sono le nanoparticelle stesse che, liberando calore per effetto dell’illuminazione, agiscono da agente riscaldante rendendo il sistema completamente autonomo da altra componentistica per svolgere questo compito.

Il team di ricerca ha sviluppato vari tipi di DNA con diverse temperature di melting per capire quali siano le molecole che producono i risultati migliori. Per il momento pare che i ricercatori siano stati in grado di produrre “solo” luce rossa e verde con questo sistema e quindi mancherebbe ancora il blu all’appello per poter pensare ad una possibile applicazione nel campo degli schermi.

Arrivati a questo punto comunque non penso che il team si fermerà e sicuramente continuerà a lavorare su questo progetto per portarlo il più avanti possibile e se anche mi sbagliassi è certo che hanno posto le basi per lo sviluppo di sistemi piuttosto interessanti e sono certo che in ogni caso la comunità scientifica in generale in un qualche modo le sfrutterà.

Come sempre vi lascio in calce tutti i riferimenti utilizzati per la produzione di questo articolo nonché il link all’articolo originale riguardante lo studio analizzato:

  1. https://phys.org/news/2022-06-gold-nanoparticles-custom-dna-molecules.html
  2. Joonas Ryssy et al, DNA‐Engineered Hydrogels with Light‐Adaptive Plasmonic Responses, Advanced Functional Materials (2022).  DOI: 10.1002/adfm.202201249

Parole per TAGs: Schermi, Display, Nanotecnologia, DNA

Prendersi cura: il legame di attaccamento

Negli ultimi decenni è cambiata la concezione del bambino grazie anche ai contributi dell’Infant Research,
prospettiva teorico-empirica che ha individuato competenze comunicative e sociali già nel neonato,
attribuendogli una precoce motivazione a stabilire relazioni e a ricercare una reciprocità nel rapporto con
l’altro, in particolare con i caregivers (genitori o persone che se ne prendono cura). Rinnovata importanza
quindi è stata attribuita ai primi periodi di vita del bambino e alle prime relazioni che incideranno poi su tutto
il percorso di crescita e sull’età adulta.
Un concetto fondamentale è quello di competenza di
cura. La competenza di cura è il risultato di un processo
lento e graduale che si attiva dall’infanzia e si sviluppa
lungo l’intero arco di vita dell’individuo, intersecandosi
col ciclo di vita della famiglia di origine e di quella
generata. Questo percorso interagisce inoltre col ciclo
evolutivo dell’attaccamento, dove Bowlby, medico,
psicologo e psicanalista britannico, definisce il legame
di attaccamento come la predisposizione del neonato
a stabilire appunto un legame preferenziale con le
figure che si occupano di lui (caregivers) aggiungendo che affinchè si stabilisca un legame di attaccamento
occorrono interazioni costanti e protratte.
La competenza di cura trae origine dalle prime esperienze di accudimento, positive o negative, che
caratterizzano gli scambi con i primi caregivers e che verranno, eventualmente, più o meno compensate e
riparate da altri successivi incontri significativi. Le prime esperienze verranno a costituire un bagaglio di
modelli di accudimento, ovvero di “modi in cui ci si prende cura” che verranno spesi nel rapporto con i
coetanei e, rielaborati e adattati, nel legame simmetrico col partner. Nel passaggio alla genitorialità tale
bagaglio di modelli di accudimento verrà inoltre utilizzato dal soggetto negli scambi col proprio figlio o figlia.
Così è spiegato come le prime relazioni, il modo in cui si viene accuditi in esse, influenzino tutta la vita della
persona che utilizzerà quel modo di prendersi cura, seppur modificato dalle successive relazioni, con i pari,
con i partner, fino ad utilizzarli con i figli che eventualmente avrà.
Il precoce legame di attaccamento, che solitamente il bambino costruisce con i genitori, rappresenta quindi
l’esperienza primaria alla base del percorso di sviluppo della competenza di cura. Il bambino attraverso le
risposte del caregiver ai suoi bisogni apprende come ci si prende cura di qualcuno, come lo si protegge, gli si
danno norme, lo si aiuta a regolare le emozioni; acquisisce un bagaglio di schemi più o meno adeguati dello
stare con gli altri e del prendersi cura di loro.
Da piccolissimo la relazione è asimmetrica: il bambino riceve cure dal genitore senza fornirne, tuttavia
dispone di una serie di comportamenti innati, come pianto e vocalizzazione, utili a mantenerne la vicinanza
e a richiamarlo; essere “attaccati al caregiver” significa essergli abbastanza vicino e si vedranno qui i
complementari bisogni di esplorazione e di vicinanza del bambino: quando l’ambiente sembrerà sicuro si
allontanerà dal caregiver per esplorare , quando sarà stanco, insicuro, ricercherà la vicinanza.
Ci sono molteplici modalità di attaccamento teorizzate da Mary Ainsworth, che le ha studiate attraverso una
procedura specifica: la Strage Situation. In tale procedura si fa un’osservazione strutturata del
comportamento del bambino tra 12 e 18 mesi focalizzandosi in particolare sulle sue reazioni a momentanee
separazioni dalla madre e al ricongiungimento con essa.
Lo stile di attaccamento è legato alla responsività del genitore, si parla di attaccamento sicuro quando nel
primo anno di vita il bambino ha trovato un caregiver (solitamente si pensa alla madre ma oggi sappiamo che
può trattarsi del padre o di chi si prende cura del bambino) responsivo, coerente, empatico ed è quindi in
grado di esplorare l’ambiente ma anche di tornare a cercare il genitore, sapendo che lo troverà e che saprà
rispondere al suo bisogno.
L’attaccamento sicuro è solo uno dei diversi stili di attaccamento, ci sono diversi stili invece di attaccamento
insicuri ma ci limitiamo adesso a vedere la traiettoria evolutiva e lineare della competenza di cura.
Il bambino con attaccamento sicuro quindi riesce a tollerare e superare brevi separazioni dal caregiver,
mostrandosi poi felice al ricongiungimento; tali schemi relazionali saranno poi utilizzati in adolescenza
quando il ragazzo o la ragazza si emancipano dalla famiglia di origine alla ricerca di legami sostitutivi amicali
e amorosi con i pari in cui la relazione diventa simmetrica: la persona si sperimenta nel duplice ruolo di chi
dà supporto e di chi riceve cure.
Nella relazione amorosa la possibilità di spostarsi in modo flessibile dalla posizione di fruitore di cure a quella
di caregiver consente ai componenti della coppia di essere l’uno per l’altro fonte di rifornimento affettivo e
questa è la base per potersi orientare verso progetti condivisi che possono riguardare la sola coppia o la
possibilità di impegnarsi in una relazione asimmetrica nei confronti di un figlio.

SUBFORNITURA E ABUSO DI POSIZIONE DOMINANTE

La subfornitura è quel contratto con il quale “un imprenditore si impegna a effettuare per conto di una impresa committente lavorazioni su prodotti semilavorati o su materie prime forniti dalla committente medesima, o si impegna a fornire all’impresa prodotti o servizi destinati ad essere incorporati o comunque ad essere utilizzati nell’ambito dell’attività economica del committente o nella produzione di un bene complesso, in conformità a progetti esecutivi, conoscenze tecniche e tecnologiche, modelli o prototipi forniti dall’impresa committente” (art. 1 L. 192/1998).

Tra le varie problematiche legate a tale tipologia di contratto deve essere tenuta in considerazione la possibilità di incorrere in un abuso di posizione dominante.

Difatti, l’art. 9 L. 192/1998 stabilisce, nell’ambito della subfornitura, che “è vietato l’abuso da parte di una o più imprese dello stato di dipendenza economica nel quale si trova, nei suoi o nei loro riguardi, una impresa cliente o fornitrice. Si considera dipendenza economica la situazione in cui una impresa sia in grado di determinare, nei rapporti commerciali con un’altra impresa, un eccessivo squilibrio di diritti e di obblighi. La dipendenza economica è valutata tenendo conto anche della reale possibilità per la parte che abbia subìto l’abuso di reperire sul mercato alternative soddisfacenti.

L’abuso può anche consistere nel rifiuto di vendere o nel rifiuto di comprare, nella imposizione di condizioni contrattuali ingiustificatamente gravose o discriminatorie, nella interruzione arbitraria delle relazioni commerciali in atto”.

In sostanza, è vietato l’abuso da parte della committente dello stato di dipendenza economica nel quale si trovava, nei suoi riguardi, la subfornitrice.

Inoltre, il patto attraverso il quale si realizza l’abuso di dipendenza economica è nullo e il giudice ordinario può inibire tale condotta e condannare l’abusante al risarcimento del danno.

Tuttavia, la Corte di Cassazione (Cass. civ., SS. UU., 25.11.2011, n. 24906) ha esteso l’ambito di applicazione della predetta norma affermando che l’art. 9, L. n. 192/98 “configura una fattispecie di applicazione generale, che può prescindere dall’esistenza di uno specifico rapporto di subfornitura, la quale presuppone, in primo luogo, la situazione di dipendenza economica di un’impresa cliente nei confronti di una sua fornitrice, in secondo luogo, l’abuso che di tale situazione venga fatto, determinandosi un significativo squilibrio di diritti e di obblighi, considerato anzitutto il dato letterale della norma, ove si parla di imprese clienti o fornitrici, con uso del termine cliente che non è presente altrove nel testo della L. n. 192 del 1998”.

Il Tribunale di Roma (16.01.2016) ha precisato che “l’atteggiarsi dei rapporti negoziali, per integrare la fattispecie di controllo esterno, deve generare la traslazione all’esterno della società del poter di direzione dell’attività sociale, ma ciò non si verifica sulla base della sola reiterazione nel tempo di più ordini”.

Ad ogni modo, in generale, la fattispecie dell’abuso di posizione dominante trova la propria principale fonte di regolamentazione nell’art. 102 del TFUE in forza del quale è incompatibile con il mercato interno, nella misura in cui possa essere pregiudizievole al commercio tra Stati membri, lo sfruttamento abusivo da parte di una o più imprese di una posizione dominante sul mercato interno o su una parte sostanziale di questo.

La norma indica quattro ipotesi tipiche di pratiche abusive che possono consistere:

  • nell’imporre direttamente od indirettamente prezzi d’acquisto, di vendita od altre condizioni di transazione non eque;
  • nel limitare la produzione, gli sbocchi o lo sviluppo tecnico a danno dei consumatori;
  • nell’applicare nei rapporti commerciali con gli altri contraenti condizioni dissimili per prestazioni equivalenti, determinando così per questi ultimi uno svantaggio per la concorrenza;
  • nel subordinare la conclusione di contratti all’accettazione da parte degli altri contraenti di prestazioni supplementari, che, per loro natura o secondo gli usi commerciali, non abbiano alcun nesso con l’oggetto dei contratti stessi.

Con l’emanazione della Direttiva n. 2014/104/UE, il legislatore europeo ha introdotto alcune norme ritenute necessarie per garantire la possibilità di proporre una azione risarcitoria da parte di chiunque abbia subito un danno a causa di una violazione del diritto della concorrenza.

Il nostro legislatore ha provveduto a dare attuazione alla direttiva attraverso l’introduzione nel nostro ordinamento del D.lgs.19 gennaio 2017, n. 3 che riconosce appunto il diritto al risarcimento in favore di chiunque abbia subito un danno a causa di una violazione del diritto della concorrenza da parte di un’impresa o di un’associazione di imprese.

Il risarcimento del danno deve comprendere il danno emergente, il lucro cessante oltre agli interessi e non determina sovracompensazioni. Esso è determinato secondo le disposizioni di cui all’art. 1223 c.c., art. 1226 c.c. ed art. 1227 c.c.

Fonte: Altalex; Il Sole 24 Ore; Codice Civile.

LICENZIAMENTO

Il licenziamento è il “provvedimento con il quale un imprenditore fa cessare un lavoratore dall’attività prestata alle sue dipendenze (in un ufficio, un impiego, una fabbrica, un servizio), recedendo dal contratto di lavoro“.

Si distingue tra:

  • licenziamento per giusta causa: ipotesi in cui il licenziamento del dipendente sia fondato su un fatto così grave da non permettere la continuazione del rapporto di lavoro, neanche in via provvisoria;
  • licenziamento per giustificati motivi oggettivi: ipotesi in cui il licenziamento è fondato su unasituazione di difficoltà economica e/o strutturale. In particolare, l’art. 3 della legge 604/1966 lo definisce come quella rescissione del contratto di lavoro che si verifica per “ragioni inerenti all’attività produttiva, all’organizzazione del lavoro e al regolare funzionamento di essa”;
  • licenziamento per giustificati motivi soggettivi: ipotesi relativa ad un comportamento del lavoratore meno grave di quelli relativi al licenziamento per giusta causa che si compie concedendo il preavviso al lavoratore. In particolare, l’art. 3 della legge 604/1966 lo definisce come quella rescissione del contratto di lavoro che si verifica per “un notevole inadempimento degli obblighi contrattuali da parte del prestatore di lavoro”.

Fonte: Enciclopedia Treccani; Legge 604/1966.

I primi passi del telescopio James Webb

Dopo 25 anni di progettazione e più di 10 miliardi di dollari di budget, il telescopio spaziale James Webb (JWST) è stato finalmente lanciato con successo il 25 dicembre 2021 dal lanciatore ESA Ariane 5 a Korou, in Guyana Francese. Fra poche settimane, le procedure di dispiegamento del telescopio saranno completate e gli scienziati riceveranno osservazioni del nostro universo con un livello di nitidezza mai raggiunto prima.

Oltre ad ospitare attrezzatura di ultima generazione, il telescopio James Webb è uno strumento molto versatile, capace di portare a termine investigazioni in diversi ambiti delle scienze astronomiche, cosmologiche ed anche esoplanetarie, riguardanti cioè la ricerca e lo studio di pianeti appartenenti ad altri sistemi stellari, cercando anche tracce che possano suggerire la presenza della vita extraterrestre.

Rendering artistico del telescopio James Webb (NASA GSFC/CIL/Adriana Manrique Gutierrez CC)

Il telescopio è stato collocato in una posizione strategica: trattasi del punto Lagrangiano L2 del sistema Terra-Sole, un luogo individuato dalla soluzione del problema dei tre corpi. Questo punto si trova sull’asse che unisce Terra e Sole, ruotando coerentemente col nostro pianeta intorno alla sua stella. Il vantaggio che si ottiene riguarda la direzione del Sole, che rimane costante per tutta la missione, facilitando il lavoro dello scudo termico nello schermare i raggi solari. Infatti, per funzionare correttamente, il telescopio deve essere mantenuto a temperature criogeniche, ossia inferiori ai 50 Kelvin (circa -223°C).

Tragitto del telescopio James Webb dal lancio fino al raggiungimento del punto Lagrangiano L2 (NASA)

Nell’immagine riportata sopra è possibile seguire il tragitto del telescopio James Webb dal lancio al raggiungimento del posizionamento finale, i cui punti salienti sono:

  1. 25 Dicembre 2021 : Lancio dal centro spaziale di Kourou, in Guyana Francese;
  2. 28 Dicembre 2021: Inizio del dispiegamento delle prime strutture di sostegno dello scudo termico;
  3. 30-31 Dicembre 2021: I paletti di sostegno dello scudo termico sono estesi nelle varie direzioni, portandosi dietro parte delle superfici isolanti dello scudo;
  4. 3-4 Gennaio 2022: I 5 strati isolanti di Kapton sono messi in tensione, permettendo alla parte in ombra di raggiungere la temperatura operativa di -230°C;
  5. 6 Gennaio 2022: Dispiegamento del radiatore, che puntando verso il freddo del vuoto spaziale, contribuirà a mantenere bassa la temperatura del telescopio;
  6. 7-8 Gennaio 2022: Apertura dei due pannelli costituenti lo specchio primario, fatti di esagoni di berillio ricoperti di oro puro.

Nonostante la piena operatività sia prevista solamente per quest’estate, il telescopio sta già fornendo agli scienziati le prime immagini per scopi di monitoraggio e calibrazione, come quella riportata qua sotto, la prima in assoluto, risalente al 4 febbraio 2022.

La prima immagine mai inviata dal telescopio James Webb, il 4 febbraio 2022 (NASA)

I ricercatori di tutto il mondo aspettano con impazienza l’annuncio NASA dell’operatività del telescopio: ormai si tratta solamente di poche settimane e poi saremo tutti un piccolo passo più vicini a svelare i segreti del cosmo.

Fonti:

https://www.skyatnightmagazine.com/space-missions/james-webb-space-telescope-images/

https://www.jwst.nasa.gov/index.html

I referendum popolari sulla giustizia del 12 giugno

Il 12 giugno, dalle 7 alle 23, la cittadinanza italiana sarà chiamata a esprimersi su cinque quesiti referendari, promossi da Lega e Radicali, che puntano a modificare parte dell’ordinamento del sistema giudiziario italiano

Fac-simile di uno dei quesiti che saranno sottoposti al voto popolare il 12 giugno 2022

Partiamo dai quesiti: sono cinque, sono lunghi e sono abrogativi, cioè servono per abrogare (abolire) del tutto o in parte il testo di una legge, e sono soprattutto quesiti tecnici (i testi integrali sono consultabili qui). Affinché l’esito del voto per ogni singolo quesito sia valido, secondo quanto richiede la Costituzione, è necessario prima di tutto che si raggiunga il quorum – cioè devono aver partecipato al voto almeno la metà + 1 degli aventi diritto al voto – e, affinché la norma sia abrogata, la maggioranza dei voti validi deve essere per il “sì”.

Primo quesito: abrogazione della legge Severino
In base alla legge Severino (che prende il nome dalla già Ministra della Giustizia Paola Severino), non possono essere candidati o decadono dalla carica di deputato, senatore o parlamentare europeo le persone condannate in via definitiva per reati particolarmente gravi, come mafia o terrorismo; per reati contro la pubblica amministrazione, come peculato, corruzione o concussione; e per delitti non colposi per i quali sia prevista la pena della reclusione non inferiore a quattro anni. In particolare, soltanto per gli amministratori locali (come i sindaci), la legge prevede, per la durata massima di un anno e sei mesi, la sospensione del mandato anche in caso di condanna non definitiva.
Sebbene sia quest’ultima particolarità e disparità di trattamento ad aver portato alla volontà di abrogare la norma, il quesito così com’è stato pensato porterebbe ad una abrogazione totale della legge Severino e, quindi, anche i condannati in via definitiva potrebbero candidarsi o continuare il proprio mandato.

Secondo quesito: imitazione delle misure cautelari
Le misure cautelari sono le azioni preventive che un giudice può disporre su richiesta del pubblico ministero verso un individuo non ancora condannato in via definitiva allo scopo di prevenire esiti negativi dalla mancata azione. Gli arresti domiciliari e la custodia cautelare in carcere sono esempi di misure cautelari.
Se la modifica proposta dal quesito venisse approvata, un giudice potrebbe disporre la misura cautelare solo se ritenesse concreto e attuale il pericolo che l’indagato commetta reati “con uso di armi o di altri mezzi di violenza personale o diretti contro l’ordine costituzionale ovvero delitti di criminalità organizzata” mentre non sarebbe più valida una misura cautelare, per reati meno gravi, con la motivazione del pericolo di reiterazione (ripetizione) del reato “della stessa specie di quello per cui si procede”.
È da notare che l’articolo 274 del codice penale, ad oggi, stabilisce già dei limiti all’applicazione delle misure cautelari per il caso che il quesito del referendum chiede di abrogare. Infatti vi si specifica che la custodia cautelare per pericolo di reiterazione può essere disposta solo in caso di crimini che prevedano la pena di una reclusione di quattro o più anni oppure di 5 o più anni per la custodia in carcere.  

Terzo quesito: separazione delle carriere dei magistrati
I magistrati (i funzionari pubblici investiti di poteri giudiziari) si dividono in giudicanti e requirenti: i giudicanti sono giudici mentre i requirenti sono pubblici ministeri. Le cariche possono essere assunte in modo intercambiabile fino ad un massimo di quattro volte nell’arco della carriera lavorativa dell’individuo e questo cambio di carriera è ciò che il quesito punta a cancellare stabilendo che il passaggio da una funzione all’altra non sia possibile. Da notare che anche la riforma del Consiglio superiore della magistratura (Csm), ora in discussione in Commissione Giustizia al Senato dopo la già avvenuta approvazione alla Camera, stabilisce che il passaggio dalle funzioni di giudice a quelle di requirente possa essere chiesto dai magistrati solo una volta nel corso della propria carriera.

Quarto quesito: valutazione della professionalità dei magistrati
Ogni quattro anni i magistrati sono valutati per il loro operato riguardo la professionalità con una scala di giudizio dal “positiva” al “non positiva” e infine “negativa” espressa su una serie di parametri. Queste valutazioni sono compito dei consigli giudiziari, organi del Consiglio superiore della magistratura composti da membri “togati” (magistrati eletti sul territorio, presidente della Corte d’appello e procuratore generale) e “laici” (avvocati e professori universitari), solo i membri togati però hanno il diritto di valutare attivamente i magistrati. Questa particolarità è ciò che il quesito referendario punta a modificare, rendendo tutti i componenti dei consigli giudiziari partecipanti attivi alla valutazione dei magistrati. Come il quesito precedente, anche questo si intreccia con la riforma del Csm in corso d’opera che cambierebbe il sistema ora in vigore con la creazione di un fascicolo di valutazione che raccolga i dati sulle attività di ogni singolo magistrato.

Quinto quesito: la raccolta firme per candidarsi al Consiglio superiore della magistratura
Attualmente, per potersi candidare al Csm, i magistrati interessati devono presentare una candidatura sottoscritta da un minimo di 25 e un massimo di 50 raccolte tra altri magistrati. Il quesito referendario richiede di abolire questa raccolta e di tornare alla situazione del 1958 quando ogni singolo magistrato interessato presentava la propria candidatura in autonomia. L’obiettivo, in questo caso, sarebbe la riduzione del peso delle “correnti” politiche interne alla magistratura nella presentazione delle candidature. Va però sottolineato che la forza delle “correnti” non sarebbe certo influenzata con questo espediente in quanto le votazioni andrebbero comunque in favore dei candidati rappresentanti di una corrente o di un’altra. D’altronde è la stessa Costituzione a riconoscere la libertà di associarsi in “partiti”, che svolgono una funzione di necessaria mediazione e, nella magistratura, questa funzione di mediazione era e continuerà ad essere svolta dalle “correnti”.

Le creme solari proteggono la salute dell’uomo ma preoccupano per quella dei coralli

Le barriere coralline – famose per la loro bellezza – rappresentano uno degli ecosistemi più produttivi e ricchi di biodiversità al mondo. Svolgono molti ruoli ecologici importanti, supportando una grande varietà di specie di pesci, ma anche di invertebrati e alghe. Le barriere coralline sono però suscettibili a disturbi di vario tipo, sia di origine naturale che antropogenica, sia locali che globali. Negli ultimi anni, ad esempio, si è osservato un generale declino nell’estensione dei coralli causato dai cambiamenti climatici e dall’aumento della temperatura nelle acque degli oceani.

Immagini gratis di Pesce

A livello locale, invece, a preoccupare particolarmente sono gli effetti determinati da prodotti per la cura personale, soprattutto le creme solari – per il loro ampio utilizzo e la loro pseudo-persistenza in ambiente marino. L’uso delle creme solari, infatti, parallelamente al turismo nelle zone costiere, continuerà ad aumentare nei prossimi anni. Gran parte dei filtri UV non vengono assorbiti dalla pelle, di conseguenza un bagno in mare dopo l’applicazione di questi prodotti ne determina il rilascio di residui. La porzione dei filtri UV assorbita viene escreta con le urine, finendo nelle acque di scarico, dove spesso non vengono rimossi in modo efficiente per via delle loro caratteristiche fisico-chimiche.

Sappiamo ancora poco per quanto riguarda la potenziale tossicità di queste sostanze e in letteratura sono presenti pochi studi che ne analizzano i meccanismi di interazione negli organismi marini. Uno studio pubblicato su Science da un gruppo di ricerca dell’Università di Stanford ha recentemente dimostrato come l’ossibenzone, un ingrediente comune nelle creme solari, possa danneggiare i coralli in presenza di luce ultravioletta.

I ricercatori hanno scoperto che gli anemoni di mare, organismi molto simili ai coralli, rendono l’ossibenzone idrosolubile, aggiungendo uno zucchero mediante processi metabolici. Il complesso formato, se esposto a luce ultravioletta, tende a produrre specie reattive dell’ossigeno che sono in grado di danneggiare e uccidere i coralli. L’esperimento è stato effettuato in un ambiente marino simulato e i risultati hanno evidenziato come la presenza di luce ultravioletta sia la discriminante che determina gli effetti tossici dell’ossibenzone. Inoltre, gli anemoni con presenza di alghe simbionti sono sopravvissuti per un periodo di tempo maggiore, in quanto l’ossibenzone si accumula preferibilmente nelle cellule delle alghe, che svolgono quindi una funzione protettiva. Questo dato preoccupa particolarmente in quanto l’aumento delle temperature degli oceani determina il fenomeno dello sbiancamento dei coralli per la perdita delle alghe simbionti, rendendo i coralli più sensibili a questi contaminanti locali.

Questo dimostra l’importanza dello studio ecotossicologico di composti chimici e dei loro metaboliti in situazioni reali o in simulazioni di esse.

Fonti:

Vuckovic, D., Tinoco, A. I., Ling, L., Renicke, C., Pringle, J. R., & Mitch, W. A. (2022). Conversion of oxybenzone sunscreen to phototoxic glucoside conjugates by sea anemones and corals. Science376(6593), 644-648.

Watkins, Y. S., & Sallach, J. B. (2021). Investigating the exposure and impact of chemical UV filters on coral reef ecosystems: Review and research gap prioritization. Integrated Environmental Assessment and Management17(5), 967-981.

%d blogger hanno fatto clic su Mi Piace per questo: