Uncategorised

Attraverso il progetto BoCaM - Bologna Carbon Market - il Comune di Bologna ha inteso offrire crediti di carbonio affidabili, verificati secondo la norma ISO 14065, collegati a progetti verificabili nel tempo ad acquirenti privati che operano nella stessa area geografica, allo scopo di aumentare la sostenibilità ambientale di tutti gli attori della società.

Le aziende hanno potuto inserire all’interno di percorsi di Responsabilità sociale di impresa l’acquisto di crediti a conclusione di un percorso di miglioramento aziendale. Il Comune di Bologna ha cioè testato la creazione di un mercato reale in cui le pubbliche amministrazioni possono “creare” i crediti di carbonio generati dai loro progetti e dalle loro politiche, certificati da una terza parte e che le aziende private possono acquistare per neutralizzare le emissioni di CO2.
Il progetto é stato finanziato all’interno di un bando europeo Climate-KIC che mira alla creazione di un mercato delle emissioni (partner: Comune di Bologna, Lamborgini, CCPB).

Le attività di Urban Center nel progetto sono state le seguenti: supporto alla comunicazione del progetto; organizzazione dell'evento finale; collaborazione all'elaborazione del materiale cartaceo finalizzato a una maggiore diffusione del progetto.

Anno: 2015
Finanziamento: Pathfinder Climate-KIC
Per saperne di più:
> paes.bo.it/progetto-bologna-carbon-market-un-focus-group-con-le-aziende/
> paes.bo.it/progetto-bologna-carbon-market-conferenza-finale/
> Il depliant del progetto

foto Bocam

A settembre 2015 Urban Center Bologna è stato impegnato all'interno delle attività della PhD Summer School della Climate-KIC organizzata insieme ad Aster, Università di Bologna e Comune di Bologna e incentrata sui temi della resilienza.

Il programma intensivo di due settimane è stato incentrato sull’adattamento ai cambiamenti climatici e sugli impatti che le città si troveranno sempre più frequentemente ad affrontare. Prendendo spunto dalla città di Bologna, con le sue particolari caratteristiche ambientali, climatiche e strutturali, e analizzando i progetti messi in atto dalla città per contrastare gli effetti del cambiamento climatico in loco, gli studenti sono stati chiamati a progettare delle soluzioni innovative attraverso un approccio “learning by experience”. Le lezioni frontali si sono tenute presso la sala Atelier di Urban Center Bologna.
Le attività di Urban Center Bologna all'interno della Summer School sono state le seguenti: coinvolgimento nelle attività di coordinamento, progettazione e definizione del programma scientifico e delle visite guidate, consulenza sul tema dell'adattamento ai cambiamenti climatici, organizzazione della logistica e dei trasporti, rendicontazione, comunicazione, coinvolgimento di alcuni stakeholder locali e nazionali.

Anno: 2015
Finanziamento: Climate-KIC
Gallerie fotografiche:
> flic.kr/s/aHskjr7wZo
> flic.kr/s/aHskkgR4nS

Per saperne di più:
> climate-kic.org/events/phd-summer-school-2015-design-for-adaptation-resilient-urban-communities
> paes.bo.it/design-for-resilience-summer-school-progettare-bologna-citta-resiliente

foto SummerSchool 2015

 

Online il questionario lanciato da Urban Center Bologna nell'ambito del progetto "One Tonne Society", finanziato dalla Climate-Kic, per indagare sulla volontà e sulla capacità dei cittadini bolognesi di vivere 12 mesi diminuendo la loro impronta di carbonio a tal punto da consumare solo una tonnellata di CO2.

1. Perché quello che si vede sulle visualizzazioni cambia molto di giorno in giorno, anche in modo inaspettato?
Questo tipo di sistema, utilizza una serie di tecniche che si chiamano “machine learning” e che descrivono le particolari modalità di funzionamento di alcuni programmi informatici per cui questi riescono a imparare dall'esperienza.
Potrebbero esservi familiari le immagini di quei robot che apprendono “da soli” a camminare, facendo le prove: iniziano con tentativi maldestri e, capendo tramite dei sensori quando “cadono” invece che “procedere in avanti”, fanno tesoro dei propri tentativi e progressivamente “imparano”. Allo stesso modo, adesso ci troviamo all'inizio dell'ascolto di HUB: il sistema sta iniziando ad imparare come le persone a Bologna parlano della collaborazione a Bologna. Per adesso sta ascoltando di tutto, in modo molto variato, ma già in questi primi giorni ha imparato molte cose da scartare, in quanto non rilevanti per il tema della collaborazione, e tante cose inaspettate cui prestare particolare attenzione, in quanto parte importante dei modi in cui alcuni cittadini comunicano riguardo la collaborazione.
L'ascolto, in questa prima fase, durerà due mesi: un tempo sufficiente perchè il sistema riesca a capire in modo abbastanza accurato come avviene la comunicazione digitale in città, riguardo il tema della collaborazione.
A quel punto rilasceremo un rapporto e pubblicheremo tutti i dati raccolti come sorgente di Open Data, a beneficio di tutti.
Tutte le visualizzazioni, online e all'Urban Center di Bologna, mostrano alcuni aspetti di questo processo, di come HUB stia imparando a riconoscere i luoghi, tempi, modi, persone ed espressioni della collaborazione a Bologna.
HUB in questo momento è come un bambino che sta imparando a leggere.

2. Quali sono i dati iniziali su cui si basa l'addestramento del sistema HUB?

HUB è stato addestrato inizialmente utilizzando una serie molto estesa di documenti digitali che contengono contenuti molto rilevanti per la collaborazione in città: i patti di collaborazione, i
regolamenti, le note dell'amministrazione in cui si parla delle pratiche della collaborazione di cui ci si interesserà maggiormente.
In pratica, tutti quei documenti digitali pubblici che descrivono le pratiche della collaborazione. Attraverso un software di apprendimento si è costruito un dizionario di base di parole, concetti e modi di dire sulla collaborazione, molto utile per scoprire, tra le tante cose che si dicono nella rete, proprio quei messaggi che parlano di collaborazione.

3. Come è in grado, un software, di riconoscere le persone quando parlano di collaborazione?
Cosa intende per “collaborazione” un programma informatico?
Ci sono, ovviamente, delle definizioni iniziali ed alcune emergenti, che dipendono dai linguaggi utilizzati dalle persone e dai contesti che si vanno ad osservare.
Inizialmente si usano dei dizionari di vari tipi. Dai dizionari a cui siamo abituati abitualmente, con le parole, le definizioni, i sinonimi e i contrari, a dizionari molto più particolari, che sono dei dizionari semantici, che contengono definizioni di “concetti”, invece che di “parole”. Questi ultimi, in particolare, sono dizionari non lineari, in cui a una parola segue una definizione, ma strutturati in maniera complessa, per cui ad una certa parola possono corrispondere molti concetti differenti e a un certo concetto possono corrispondere molte parole differenti. Possiamo
farci una idea della complessità di questi dizionari pensando ai tanti modi in cui noi stessi siamo in grado di esprimere uno stesso concetto, variando parole, tempi, declinazioni, immagini eccetera. Questi dizionari contengono, quindi, le strutture più comuni per esprimere taluni concetti di interesse.
Per alcuni concetti che sono utili molto di frequente ve ne sono di già compilati, di qualità notevole e utilizzati da ricercatori in tutto il mondo. Forse il più famoso è WordNet.
Altri vanno costruiti appositamente, con dei progetti di ricerca. In HUB viene utilizzato Wordnet, combinato con una serie di altri “dizionari semantici” prodotti da Human Ecosystems, per un totale di circa 4 milioni di concetti, in 29 lingue differenti.
Questi dizionari, classici e semantici, costituiscono l'incipit della possibilità, per questi software, di trasformare dati non strutturati (le cose che dicono le persone) in dati strutturati (concetti, tempi, temi, luoghi, emozioni, relazioni).
Tramite i processi di machine learning il sistema inizia a imparare e – tramite valutazioni di certezza/incertezza generate automaticamente o eseguite a campione, manualmente, per velocizzare il processo di apprendimento evidenziando casi positivi e negativi – a valutare la rilevanza rispetto ai vari concetti in maniera sempre più autonoma.
Ovviamente stiamo sempre parlando di valutazioni probabilistiche, ovvero soggette ad incertezza. In questi casi, adottando “soglie di tolleranza” particolarmente basse, si può beneficiare di ottimi risultati. In HUB, ad esempio, la rilevanza di un certo contenuto rispetto al tema osservato viene confermata solo quando sussista una probabilità del 98% o superiore, il che fornisce risultati di ottima qualità e pochissimi errori.
C'è, di fatto, che il sistema è emergente, ovvero in grado di apprendere nuovi linguaggi, per come questi si manifestano nel tempo e nei contesti. Un software che cambia con le persone.

4. Quali tecnologie vengono utilizzate da HUB?

HUB utilizza delle tecnologie molto comuni (come database e computer server di cui ci si può dotare presso un comune application provider) e una grande potenza di calcolo (per adesso fornita da Human Ecosystems, ma per cui stiamo cercando di attirare la preziosa collaborazione di centri di ricerca come il CINECA ed altri).
Di particolare interesse potrebbe essere l'indicazione delle tecnologie e tecniche utilizzate per l'analisi spaziale (ovvero geografica), l'analisi relazionale e di rete, l'analisi semantica e l'analisi emozionale dei contenuti raccolti. Per l'analisi geografica vengono utilizzate diverse tecniche. La prima, la più semplice, coincide con il fatto che siano le persone stesse a generare la propria coordinata geografica, ad esempio usando le caratteristiche in tal senso sui social network, e che le loro impostazioni di privacy autorizzino terzi a vedere tali localizzazioni.
Altra tecnica deriva dal menzionare luoghi geografici. A Bologna, ad esempio, abbiamo costruito un database con vari modi di riferirsi a migliaia di luoghi (dai monumenti, ai nomi dei centri sportivi e commerciali, i ristoranti e così via). Quando le persone, componendo il proprio messaggio pubblico sui social network, costruiscono una frase con senso geografico (come, ad esempio, “sto andando a...”, sono appena tornato da ...”, e simili) è possibile, quindi, sapere a quale luogo ci si riferisca. L'analisi relazionale, o di rete, studia l'interrelarsi delle persone e dei contenuti, a formare reti. La comprensione di queste reti è di fondamentale importanza.
Dal comprendere come si formino reti relazionali tra persone è possibile modellare come le informazioni, le opinioni, le idee ed i saperi sfluiscono tra i vari gruppi sociali; se vi è comunicazione e mobilità informazionale tra le varie comunità; chi sono gli influencer per i vari gruppi; e chi, magari, i cosiddetti bridge, i ponti in grado di collegare comunità differenti. D'altro canto, comprendere le interrelazioni tra i temi permette di capire come le persone parlano, come si muovono da un argomento all'altro, come stabiliscano collegamenti mentali e psicologici, come esprimano differenti culture e punti di vista. Altri elementi, questi, di primaria importanza per comprendere come ascoltare le persone nelle loro espressioni, e come riuscire a raggiungerle in maniera significativa, per stabilirvi un contatto efficace.
Per fare tutto questo, è necessario capire cosa esprimano i vari contenuti, tramite l'analisi semantica.
HUB utilizza tre diversi livelli di analisi semantica: l'analisi del discorso (Discourse Analysis), l'analisi “semantica latente” (Latent Semantic Analysis, LSA) e varie tecniche di “Information Retrieval” dai testi dei messaggi pubblici sui social network.
L'analisi del discorso è di semplice comprensione e fornisce risultati utilissimi: analizzando la struttura dei testi (come sono composti; se c'è un punto interrogativo a denotare una domanda; l'analisi grammaticale e logica) per capire cosa rappresentano (una domanda, una affermazione, un moto a luogo, eccetera). Mettendo insieme tante di queste semplici – ma già utilissime – comprensioni, è possibile comprendere cose ancora più utili (se, ad esempio, tante persone differenti ponessero ad uno stesso soggetto domande su uno stesso argomento e, poi,
mostrassero di apprezzarne le risposte, il soggetto in questione potrebbe essere considerato come un “esperto” sull'argomento in questione).
L'analisi semantica latente è di più difficile comprensione. Questa interpreta le frasi come delle composizioni di parti che possono essere rappresentate attraverso alcuni vettori, a seconda della rilevanza riguardo a certi temi (ad esempio il vettore “Automobile” avrà una componente molto grande lungo l'asse del “trasporto” e una componente nulla lungo l'asse delle “Verdure”).
Sistematizzando questa pratica diventa relativamente semplice identificare quali frasi siano più o meno rilevanti per quali temi, perché andrebbero a collocarsi in precise aree dello spazio vettoriale (ad esempio, una frase in tema di “automobili”, per quanto detto, andrebbe a finire in zone dello spazio vettoriale che hanno un valore elevato per il “trasporto”).
Una particolare versione di questa tecnica permette di eseguire l'analisi emozionale dei testi.
Ad esempio, un modello molto utilizzato per l'analisi emozionale in diverse discipline, quali le scienze cognitive, la psicologia ed altre, è il modello “circomplesso” (circumplex model of emotions), che permette di classificare le emozioni secondo due assi principali (energia e comfort/discomfort) ed alcuni minori. Ad esempio, una mia frase, secondo questo modello, esprime una certa emozione a seconda di quanta “energia” e senso di “comfort” i “discomfort” esprima. Non è un intendimento della parola “emozione” molto simile a quello comune, ma porta a risultati molto interessanti per la comprensione di “come” le persone parlino ed affrontino i vari temi.

logohub

Save
Cookies user preferences
We use cookies to ensure you to get the best experience on our website. If you decline the use of cookies, this website may not function as expected.
Accept all
Decline all
Analytics
Tools used to analyze the data to measure the effectiveness of a website and to understand how it works.
Google Analytics
Accept
Decline
Unknown
Unknown
Accept
Decline