Opendatafest 2017 a Caltanissetta, il report di 3 giorni di lavori

 

 

 

 

 

 

Le comunità di Opendatasicilia e Spaghetti Open Data hanno dato vita a questo report sui lavori della 3 giorni di incontri dell’opendatafest a Caltanissetta (2-4 giugno 2017).

I materiali mostrati nelle giornate sono disponibili su http://opendatafest.it 

Abbiamo pubblicato le slide  delle presentazioni mostrate al raduno direttamente nel sito opendatafest.it, all’interno del programma: dopo i titoli degli interventi e delle sessioni c’è una voce “| SLIDE” che permette di visualizzare i materiali. 

In questo post elenchiamo alcuni dei momenti del raduno e delle presentazioni (fai riferimento al programma per un quadro completo).

Venerdì mattina

Dibattito di inizio dei lavori

Chi: Alberto Cottica, Matteo Brunati, Andrea Borruso, Cristiano Longo

Di cosa si è discusso, in ordine sparso:

  • Curarsi delle comunità costa, è necessario rendersene conto
  • Scelta di strumenti che permettano di dare un lascito, serve dare continuità alle comunità
  • Fase storica sugli Open Data: forse stiamo vivendo la fase adolescenziale, siamo stanchi
  • Serve collegarsi alle altre comunità del mondo Openness
  • Trovare modi per far convogliare i vari temi crosscomunità, pur mantenendo le varie identità, forse è utile una Woodstock dell’Openness, sta nascendo un evento a cui ci hanno chiesto un parere e un contributo, che intende provarci nel 2018
  • Comunità locali: necessitano di credibilità per incidere nel territorio, serve dare il buon esempio
  • Serve documentare tutto, necessari incontri fisici e online
  • Non siamo da soli, non dobbiamo chiuderci in noi stessi, serve aiutare il ricambio e allargare includendo
  • Per coinvolgere altri è necessario uscire dal linguaggio da iniziati
  • La tecnologia è funzionale, un mezzo, da soli si fa poco: necessario coltivare i rapporti umani per creare cose nuove
  • Quando un cittadino inizia a produrre valore, mette in discussione lo status quo
  • Bisogna decidere come partecipare alle azioni di governo, capire come relazionarsi all’EU, bisogna rompere le scatole in modo costruttivo, come comunità
  • Il civic hacker è troppo solo, devi avere persone intorno per restare motivato
  • Serve decidere come comportarsi con le altre comunità
  • Lancio del progetto civichacking.it

Dettagli sull’evento delle comunità dell’Openness in costruzione 2018

A quanto pare l’esigenza di connettere comunità che lavorano e sono appassionate di temi affini, non è solo una sensazione di pochi: parliamo di tutte quelle comunità che in qualche forma supportano e discutono di libertà digitali (Openness in senso lato, Open Source, Free Software, Open Content e beni comuni digitali).

Assieme a Roberto Guido (presidente di Italian Linux Society – ILS), che ci ha cercato qualche settimana prima del raduno, abbiamo iniziato a ragionare su un evento unico, che riunisca molte comunità nello stesso luogo e negli stessi giorni, mantenendo ognuna separata nella gestione dei propri eventi. Per iniziare può bastare essere tutti nello stesso luogo, simultaneamente: è un inizio.

Alcuni appunti condivisi: https://etherpad.net/p/proposta-os-conf-ita

Civic hacking: comunità informali, prototipi e Open Data: il libro

Il libro nasce dall’esigenza di capire cos’è il civic hacking concretamente nel contesto italiano, uscendo dal gergo per iniziati. A partire dalle esperienze reali dei civic hacker, che collaborano per trovare soluzioni creative a sfide sociali concrete, allarghiamo lo sguardo per analizzare il rapporto tra Open Data, prototipi, comunità informali e modi di sfruttare le zone grigie (quelle opportunità inaspettate che si creano a volte).

Interessa ovviamente i civic hacker. Interessa anche i maker, gli appassionati di openness e chiunque senta l’esigenza di mettere le mani “in pasta”.  

Raccontiamo anche le nostre esperienze dirette all’interno della comunità di Spaghetti Open Data per mostrare il potenziale e la fatica di quello che si può fare.

Persone, storie, Open Data, prototipi: tutto questo per noi è civic hacking. Non solo tecnologia, ma un modo per scardinare vecchie abitudini, un modo per riprendersi il proprio ruolo di cittadini, un modo per risolvere problemi.

Fino al 31/7 h.22 CEST, puoi inviare un tuo contributo. Per dettagli fai riferimento al sito http://civichacking.it/#contributi.

Dal primo agosto partirà una campagna di crowdfunding: se ti interessa, lascia pure la tua email qui http://eepurl.com/cQ15nX.

L’annuncio del portale regionale siciliano sui dati aperti

A sorpresa è venuto a seguire i lavori della mattina Enzo Lo Piccolo, webmaster della Regione Siciliana. Ha chiesto la parola per pochi minuti e ha fatto un annuncio: nelle prossime settimane (tra fine giugno e inizio luglio) verrà lanciato il portale regionale siciliano sui dati aperti. Sarà basato su CKAN e DCAT-AP_IT compliant.

Ha chiesto alla comunità – a lancio effettuato – di “dargli una mano”, sia nelle critica che nella proposta e ha dato comunicazione di un indirizzo email dedicato opendata@regione.sicilia.it. E noi gli abbiamo chiesto di iscriversi alle nostre mailing list.

È stato un momento molto informale e concreto, che ci fa essere ottimisti. Per la Sicilia è sicuramente una bella notizia ed è stato un piacere che #ODFest17 sia stato “stimolante”.

Le presentazioni del venerdì pomeriggio

Proposte di elaborazione di Dati Aperti dagli studenti di Informatica dell’Università di Palermo

Tre studenti del corso di laurea in Informatica dell’Università degli studi di Palermo, hanno presentato i progetti realizzati per l’esame della materia “Tecniche per la gestione degli Open Data”, curato da Davide Taibi del CNR di Palermo (http://offweb.unipa.it/offweb/public/corso/dettaglioInsegnamento.seam;jsessionid=FB17C3274CB9C25A07D58E8A68988D26?oidCurriculum=17137&oidInsegnamento=111202&cid=123461). I progetti che gli studenti devono realizzare per superare l’esame della materia hanno tre caratteristiche fondamentali: a) i dati da elaborare devono provenire da diverse fonti (anche generati da sensori) ed essere in diversi formati; b) i dati acquisiti devono essere elaborati mediante processi di pulizia e armonizzazione delle strutture dati; c) i dati elaborati devono essere resi disponibili all’esterno mediante API e in un formato aperto con un livello pari a 5, possono essere riusate ontologie esistenti o è possibile creare nuove ontologie per modellare il dominio di conoscenza specifico. Infine, i dati prodotti devono essere alla base della realizzazione di applicazioni come: bot telegram, web application, o applicazioni per dispositivi mobili.

Nello specifico gli studenti che hanno partecipato all’OpenDataFest17 hanno presentato:    

  • Un portale che aggrega gli eventi culturali che si svolgono nella città di Palermo di Vincenzo Cimino, https://raw.githubusercontent.com/VickPix/aggregatore-eventi/master/slides/Aggregatore_eventi_Vincenzo_Cimino.pdf. I dati vengono acquisiti mediante scraping di alcuni blog palermitani, e dal portale dell’Università di Palermo; e vengono armonizzati in una struttura dati comune che viene utilizzata per alimentare un portale in cui vengono visualizzati gli eventi mediante una interfaccia semplice, facile e comoda. Per modellare gli eventi e le loro caratteristiche è stato utilizzato schema.org. L’estrazione dei dati relativi agli eventi in formato JSON-LD è stata implementata attraverso API. L’applicazione è disponibile qui (http://portale-eventi.firebaseapp.com).
  • Una stazione meteo autocostruita e la relativa piattaforma di gestione dei dati in rete di Riccardo La Grassa https://github.com/pulsar2468/Owd/blob/master/OpenDay2017.pdf. Sono state fornite indicazioni per la costruzione della stazione meteo. Molto interessante è stata la descrizione relativa alla costruzione dell’anemometro, realizzato a basso costo con materiali riciclati. I dati raccolti dalla stazione vengono elaborati da un server centrale alle quali le stazioni meteo possono registrarsi attraverso un TOKEN. Il server centrale fornisce le visualizzazioni dei dati acquisiti e consente l’esportazione dei dati in formato aperto a cinque stelle. In questo caso è stata riutilizzata una ontologia specifica per la modellazione dei dati provenienti dai sensori.  
  • Una piattaforma di visualizzazione per infografiche relative a dati georeferenziati di Tommaso NIcosia (http://opendatafest.it/presentazioni/TommasoNicosia-OpenData-framework-sviluppo.pdf). In questa piattaforma i dati provenienti dalle segnalazioni della polizia municipale del comune di Palermo, e i dati provenienti da Waze relativi al traffico cittadino vengono aggregati e visualizzati su mappa. Un prototipo è disponibile qui (http://neuron4web.palermo.enea.it/opendata/_trafficendpoint). Uno SPARQL endpoint si occupa di gestire le query che vengono effettuate sui dati rappresentati in RDF. I dati forniti possono avere diversi settori di applicazione. Ad esempio tali dati possono guidare le scelte dei percorsi per raggiungere punti critici della città come ad esempio i presidi ospedalieri. L’unione di queste informazioni con, ad esempio, i dati relativi alle file dei pronto soccorso della città potrebbero supportare (nell’eventualità in cui non ci siano casi che necessitano cure immediate) la scelta del pronto soccorso in maniera più efficiente in termini di pazienti in attesa, traffico nelle strade ed eventi particolari come manifestazioni e lavori in corso.    

Non fidarsi più dell’ennesima agenda: servono uno o più progetti di civic hacking [Forum OGP]

Durante il dibattito mattutino sono emersi alcuni elementi sparsi legati soprattutto al ruolo di realtà come SOD o gruppi locali come Opendata Sicilia rispetto a forum di questo tipo, ancor di più in merito al tipo di intervento e interessi da mettere sul piatto.

Durante la sessione pomeridiana siamo andati maggiormente nel dettaglio di un processo complesso, costoso e con un ritorno difficile da valutare per la società civile. Lo scopo è stato quello di condividere un vissuto di un anno, focalizzato a spiegare dove siamo ora, specie in merito alle proposte/domande presentate al ministro Madia durante l’ultimo evento in plenaria dell’8 maggio scorso.

Una delle azioni nate nei giorni del raduno e condivise con i presenti ha poi generato questa richiesta formale alla squadra OGP Italy, che abbiamo condiviso in questo thread:

https://groups.google.com/d/msg/spaghettiopendata/uslQ2CTqqiM/M1rM7uaIAQAJ

Abbiamo scelto di dare maggior visibilità a questa proposta pubblicandola anche nei rispettivi luoghi digitali:

  1. http://www.spaghettiopendata.org/blog/matteo-brunati/open-government-partnership-andare-oltre-lagenda
  2. http://blog.openpolis.it/2017/06/13/open-government-partnership-andare-oltre-lagenda/15616
  3. http://blog.ondata.it/open-government-partnership-andare-oltre-lagenda/
  4. https://it.okfn.org/2017/06/13/open-government-partnership-andare-oltre-lagenda/

Incoraggiare la partecipazione attiva dei giovani alla vita democratica con YouthMetre

Caterina Impastato ha presentato YouthMetre, iniziativa che nasce per incoraggiare la partecipazione attiva dei giovani alla vita democratica.  Ecco le slide (Prezi) dell’intervento: uno degli elementi più interessanti è la piattaforma e i dati che aggrega, uno degli argomenti che è stato oggetto di alcune domande da parte dei presenti.

Il progetto Ricostruzione Trasparente

Alessio Cimarelli, rappresentante dell’associazione onData, ha presentato e discusso il progetto Ricostruzione Trasparente. Ecco le slide dell’intervento.

Civic Hackathon[s]

Creazione del GTFS di Caltanissetta

GTFS

Nelle prime ore di lavoro il gruppo di lavoro ha “sbattuto” con un ostacolo inatteso: i dati sulle rotte e sulle fermate erano incompleti o errati. Per fortuna, durante la giornata, è venuta a trovarci la Titolare dell’Azienda che gestisce i trasporti locali su gomma (SCAT) e siamo riusciti a produrre dei dati corretti sulla linea 3 (uno speciale grazie a Cesare Gerbino che è stato come sempre molto disponibile e puntuale).

Compresa l’impossibilità di avere delle info in giornata sui dati di base, ci siamo messi come obiettivo quello di costruire una procedura che consentisse di produrre un GTFS a partire dai dati forniti della SCAT e di verficarne la validità.

Davide Galletti ha creato uno script python, che a partire dalle info sulle fermate, e dalla timetable fornita da SCAT (che è abbastanza generica), produce i file secondo standard GTFS su rotte, corse e orari (routes.txt, trips.txt e stop_times.txt).

Abbiamo testato lo script con un set completo di dati (i file .txt presenti qui) usando il FeedValidator “ufficiale” e il file GTFS è risultato validato (con diversi warning che indicano la necessità di fare un altro check sui dati di base).

In conclusione:

  • Sarà necessario avere i dati geografici di base corretti e completi per tutte le linee. Giuseppe La Mensa, insieme al personale di SCAT, sarà in prima linea a occuparsene;
  • Con il set di dati completo, faremo delle modifiche e ovviamente dei test sullo script di creazione del file GTFS;
  • Documenteremo il tutto in modo da rendere autonoma la SCAT nella produzione del file GTFS e per potere replicare il processo anche in altri piccoli comuni.

GTFS + LOD

A valle del lavoro sul GTFS, è stato fatto un esperimento (Francesco Marchitelli, featuring Marco Brandizi) aggregando i dati del file GTFS di Lecce con dati provenienti dalla Linked Open Data cloud, per mostrare alcuni dei vantaggi nell’usare i Linked Data. Dopo aver convertito il file GTFS in RDF, sono stati inseriti gli eventi presenti a Lecce e caricato tutto quanto in un triple store. A questo punto è stata fatta una query di esempio che mostra i dettagli di un concerto organizzato al castello, con le informazioni correlate delle fermate dei bus che si trovano nelle vicinanze.

Il materiale si trova in questa cartella.

Un’analisi di rete dei finanziamenti europei alla ricerca

La sessione di Alberto era tosta, specie per quelli che non hanno partecipato al lavoro degli anni precedenti: Alberto ha raccontato i dettagli e la storia di questa proposta nella descrizione di questa sessione.

Purtroppo non è riuscita ad essere presente Baya Remaoun (andata via durante il pomeriggio del venerdì): alcune delle domande emerse sui dati CORDIS avrebbero avuto una risposta veloce, probabilmente.

Infatti una delle sfide per chi curiosa in dati che non conosce è riuscire a comprenderli con facilità.

Sono domande che porremo a Baya e alla squadra che gestisce la pubblicazione dei dati CORDIS nelle prossime settimane.

Altre domande hanno trovato risposta però: i risultati e la documentazione relativa al lavoro fatto si trovano in questa cartella del repo. C’è anche la presentazione (in formato Keynote) mostrata da Alberto e le immagini correlate (cartella).

Realizzare un elenco machine-readable di Albi POP

Nei giorni precedenti avevamo deciso di unificare i nostri hackathon entrambi relativi ad Albo POP, riconoscendo come la creazione di un elenco processabile dalle macchine di albi POP fosse un passo importante per molteplici attività, non ultima quella di creare aggregatori di albi. Per questo motivo, con l’aiuto e l’esperienza di Francesca Gleria abbiamo deciso di iniziare definendo un formato per la rappresentazione di albi POP.

Siamo partiti dal vocabolario del web semantico DCAT, raccomandazione W3C per la rappresentazione di dataset. L’albo POP è infatti null’altro che una rappresentazione, in formato RSS, del dataset degli avvisi di una pubblica amministrazione.

Abbiamo esaminato quindi la specializzazione di DCAT realizzata per le pubbliche amministrazioni italiane dcat_ap_it e la abbiamo applicata al nostro caso particolare. La peculiarità di albo POP è che il feed RSS viene generato a partire da una pagina web e il detentore dei dati (la pubblica amministrazione titolare dell’albo) non ha alcuna relazione con chi realizza e tiene su il servizio di albo pop. Inoltre, abbiamo tenuto in considerazione le specifiche RSS per albo pop.

Il lavoro ha generato un tutorial per pubblicare in DCAT_ap_it un elenco di albi pop, (che ci ripromettiamo di completare nei prossimi giorni.

Le informazioni originali sui dataset presenti nel catalogo in formato DCAT sono comunque rappresentabili in prima battuta con una semplice tabella. Abbiamo quindi strutturato opportunamente un Google Spreadsheet condiviso affinché fosse la base di partenza per la generazione automatica del file di catalogo, ma anche la sorgente dati di una visualizzazione web nello stile di Petrusino. L’idea è di alimentare il foglio mediante un form on-line e collegare ad esso uno script che lo traduca nel formato DCAT e una visualizzazione web che permetta di navigarlo.

FormAzione

Vocabolari, metadati: uno sguardo nel dettaglio

Al posto di una presentazione vera e propria c’è stata una discussione, guidata da queste slide.

Un’introduzione a Elasticsearch

Alessio Cimarelli ha tenuto una lezione introduttiva al database e motore di ricerca Elasticsearch, discutendone caratteristiche e potenzialità a partire dai dati live del progetto Ricostruzione Trasparente. Ecco le slide.

Varie

La proposta di Massimo Zotti: tradurre i videotutorial del progetto Copernicus

https://www.youtube.com/watch?v=KWeS1-TDy-0

Ringraziamenti e scuse

La vita dell’OpenDataFest17 è stata semplice e comoda. Un sentito grazie a:

  • Giuseppe La Mensa che ha coordinato tutto il prima, durante e dopo della logistica e i contatti con il sistema di accoglienza locali;
  • Erika Marconato che ha creato l’apprezzato communication kit (usato poi per magliette, banner, sito, social, ecc.. ), gestito la comunicazione su #ODFest17, raccolto le donazioni per le magliette, partecipato al gruppo di lavoro per la definizione di queste tre giornate;
  • Matteo Brunati che ha dato forma a questo raduno con diverse idee e spunti stimolanti, creato il wiki per il raduno, editato il sito e per essere stato Matteo Brunati;
  • Andrea Borruso che mostra a tutti noi come essere delle persone migliori;
  • Il Comune di Caltanissetta che, grazie alla sensibilità verso i temi del digitale innovativo dell’amministrazione Ruvolo, ha contribuito alle spese organizzative dell’evento.

Chiediamo scusa ad Alessandro Capezzuoli, per non essere riusciti a tenere al meglio i tempi del venerdì pomeriggio e non avere avuto l’opportunità di ascoltare la sua relazione dal titolo Professioni e orientamento: dagli open data al mercato del lavoro.

STORIFY

Disponibile uno storify ( a cura di Erika Marconato) che può dare un’idea di quello che abbiamo combinato: https://storify.com/ErikaMarconato/opendatafest2017

Collezioniamo tutorial per la condivisione della conoscenza

La serie televisiva di “Sanford & son” del secolo scorso è stata un ispirazione per l’attività di collezionamento di risorse, che sto per esporre.

Cercare risorse o informazioni sul web per imparare a fare qualcosa di nuovo, e trovarle, non basta, se poi rimangono nel caos del “Google search”. Come faccio a ritrovarle di nuovo se le ricerco? Devo ritornare nel Google search e non ricordo a quale pagina mi vengono presentate. Nel frattempo perdo tempo (sfogliare le pagine di risposte che mi fornisce Google).

Petrusino, da un paio di anni, è un catalogo online che elenca mappe e infografiche sulla Sicilia, … ora è il tempo di catalogare i link dei tutorial creati da qualcuno che ha investito ore per scrivere (e condividere) come si costruisce qualcosa che ha attinenza con i dati ed la cultura digitale.

Tutorialteca

I tutorial oggi rappresentano una preziosissima fonte di conoscenza condivisa, formazione informale. Mi è capitato personalmente di acquisire competenze digitali leggendo tutorial di altre persone e quindi ho capito che è importante valorizzarli al meglio. Da questa consapevolezza nasce un idea semplice: collezionare i tutorial che veicolano la cultura digitale e sui dati. Creare una sorta di “tutorialteca”.

Petrusino ha fatto da apripista, con la sua interfaccia pulita, semplice e con un efficiente motore di ricerca interno delle risorse catalogate. Ormai è un hub di conoscenza tematica utilizzato sia da pubbliche amministrazioni che da cittadini e professionisti, e le risorse censite (praticamente dei link) non sono così facilmente individuabili dall’ormai epico Google search. Fate prove cercando su Petrusino e su Google!

ACCUSSI’

Con Andrea Borruso ne parlammo tempo fa di creare un catalogo dei tutorial. Da qualche giorno — insieme a Giuseppe Ragusa — ci siamo messi all’opera per riusare l’interfaccia grafica di Petrusino. Abbiamo clonato il codice su Github per un nuovo progetto al quale abbiamo dato il nome di Accussì. In siciliano “Accussì” significa: “così, in questo modo” e gli autori dei tutorial in fondo fanno questo: ci indicano un po’ come fare le cose.

Oggi c’è la disponibilità pubblica di questo catalogo interrogabile su parole chiave, su autore e su tag. Abbiamo previsto una pagina “proponi” al fine di raccogliere facilmente quanto più tutorial possibili. Chiunque abbia costruito un tutorial sull’uso dei dati, su come si fa una mappa, un infografica, una trasformazione di file in formati diversi (da pdf a csv per es.), e su cultura digitale in generale, può censirlo in questa pagina, arricchendo il catalogo, che diventa, così, un patrimonio di conoscenza comune.

database su GoogleDrive che alimenta Accussì

Come è fatto?

Gli strumenti principali usati per realizzare il catalogo Accussì sono 4:

  • Simile Exhibit, per realizzare il cuore di Accussì, ovvero l’interfaccia di navigazione del catalogo;
  • Twitter Boostrap, per dare un po’ di stile alle pagine pubblicate;
  • GoogleDrive Sheet, per raccogliere e distribuire i dati che fanno da database sorgente;
  • GitHub Pages, per l’hosting dei file che costituiscono Accussì.

Il Codice

Il codice di Accussì, che si può clonare e adattare ai vari scopi, è disponibile in questo repository GitHub: https://github.com/SiciliaHub/accussi/.

Un nuovo servizio  di opendatasicilia

accussi.opendatasicilia.it lo trovate come nuovo servizio all’interno di “Cose nostre” di opendatasicilia.it, assieme alle altre cose già realizzate.

A noi piace fare queste cose, e speriamo che la nuova “tutorialteca” sia di ampia utilità.

Lunga vita a Sanford & son, ai costruttori di tutorial e a opendatasicilia.


immagini

  • la foto di Sanford & son è rilasciata con lic CCO
  • l’immagine Tutorial di Nick Youngson è rilasciata con lic. CC BY SA 3.0
  • le altre immagini sono screenshoot degli strumenti usati per costruire Accussì

 

 

#Palermo, linee guida comunali #opendata 2017, la tradizione continua in modalità partecipata

Il 4 maggio 2017 l’Amministrazione Comunale di Palermo, con la Deliberazione di Giunta n. 97, ha approvato la versione 2017 delle linee guida open data partecipate, quale continuazione di un percorso culturale cominciato nel 2013.

GLI ALBORI – la storia comunale degli open data di Palermo nasce nel 2013, quando 7 cittadini collaborano spontaneamente con il Comune costruendo la prima versione delle linee guida.  A seguito di un dialogo con l’Assessore alla Partecipazione, inviano la bozza di linee guida via email all’Amministrazione, la quale con Deliberazione di Giunta Municipale n. 252 del 13 dicembre 2013 le approva, facendole diventare strumento guida per l’organizzazione interna del processo di pubblicazione di dataset in formato aperto. Quei 7 cittadini sono Davide Taibi, Francesco Passantino, Gerlando Gibilaro, Andrea Borruso, Marco Alfano, Giulio di Chiara e Ciro Spataro (dipendente comunale).

OLTRE 3 ANNI DI OPEN DATA – nel periodo tra il dicembre 2013 e il maggio 2017 (3 anni e 4 mesi) l’Amministrazione comunale, nei suoi uffici e con il suo personale, intraprende un percorso di organizzazione e formazione, necessari alla pubblicazione dei dataset che ad oggi ammontano a 546 disponibili nel portale open data. L’aspetto più interessante non è la quantità di dataset oggi disponibili nel portale istituzionale, ma il processo “umano” di crescita che in questi oltre 3 anni ha portato diversi dirigenti e referenti open data a pubblicare dataset e a credere nell’importanza dei dati pubblici in formato aperto, rilasciati con licenze che ne permettono il riuso.

IL TEAM OPEN DATA E LE RIUNIONI PUBBLICHE – all’inizio del 2014 l’Amministrazione costituisce, come da linee guida, il Team open data, una strutturazione interna con responsabile open data, dirigenti e referenti negli uffici, quali soggetti chiave per l’individuazione e pubblicazione di dataset. Due volte all’anno si tiene la riunione del Team open data, un evento pubblico al quale possono partecipare soggetti della società civile, e nel quale si decidono le priorità di pubblicazione dei dati e i tematismi sui quali concentrare l’attenzione per i dataset da pubblicare. Durante queste interessanti riunioni, soggetti della community Opendatasicilia partecipano, da tempo, con interesse proponendo sempre iniziative e azioni volte al miglioramento della qualità dei dataset da pubblicare. Da notare l’interessante interazione, sempre propositiva, con la quale i partecipanti alla riunione si pongono nei confronti dei referenti e dirigenti comunali e la coesione che si viene a costruire tra interno (Comune) ed esterno (Società). I verbali di tutte le riunioni del Team sono disponibili per la consultazione nell’home page del portale open data.

L’ACCOMPAGNAMENTO FORMATIVO DEI REFERENTI – la struttura del Responsabile open data è affiancata da un tecnico (Ciro Spataro) per l’accompagnamento e la formazione base dei referenti negli uffici. Dal 2014 intrattengo un costante confronto con i referenti open data al fine di porli nella condizione di poter pubblicare dataset almeno in versione tabellare CSV (catalogati 3 stelle in una scala da 1 a 5). Ciò in quanto diversi uffici, non lavorando con applicativi gestionali creati ad hoc, fanno ricorso al pacchetto applicativo di Excel per custodire, gestire e archiviare dati di competenza. Mi avvalgo anche di un piccolo portale formativo allo scopo. Degli incontri effettuati con i referenti negli uffici tengo un report in costante aggiornamento che ritengo una sorta di memoria e che può aiutare a comprendere sia i problemi incontrati nella pubblicazione di dataset, sia i progressi raggiunti. E’ ovvio che la tendenza dell’Amministrazione, oltre all’uso di formati tabellari quali i CSV, deve essere rivolta soprattutto alla pubblicazione di dataset che sono direttamente derivabili dagli applicativi gestionali in uso negli uffici e in fase di sviluppo per il prossimo futuro (formati XML, Json, GeoJson,…).

LE NUOVE LINEE GUIDA COMUNALI OPEN DATA 2017 PARTECIPATE – con un comunicato stampa comunale del 25 gennaio 2017 viene annunciata la possibilità, per chiunque interessato, di partecipare online alla stesura delle nuove linee guida comunali. Questa nuova versione viene sentita come necessaria per via delle vigenti Linee guida nazionali open data dell’Agenzia per l’Italia Digitale versione 2016 e del vigente Profilo dei metadati DCAT_AP_IT (sempre a cura dell’AgID). Aderire, per Palermo, al profilo dei metadati DACT_AP_IT significa avere la possibilità di indicizzare i dataset palermitani nel catalogo nazionale dei dati (dati.gov.it) e in quello europeo (european data portal). La bozza di linee guida comunali open data 2017 rimane disponibile online per la partecipazione fino ad inizio aprile 2017.

Il 4 maggio la Giunta Municipale, raccogliendo le interazioni pervenute online, approva la nuova versione delle Linee Guida comunali open data versione 2017 partecipate, redatta dallo staff dell’Area Innovazione Tecnologica.

LE NOVITÀ’ DELLE LINEE GUIDA 2017 PARTECIPATE – sicuramente la partecipazione rappresenta il primo elemento di rilievo, che, allo stesso tempo, costituisce una continuazione culturale rispetto al processo passato di partecipazione dal basso, condotto nel 2013 da 7 cittadini che avevano “scritto” le linee guida open data per una grande città italiana.

Nella Deliberazione viene menzionata la community Opendatasicilia, quale soggetto molto attivo, presente agli incontri del Team open data e competente nell’ambito dei dati in formato aperto. Questa citazione attribuisce alla comunità siciliana un importante ruolo: soggetto sensibilizzatore, formatore, di stimolo, in ultima analisi un soggetto ritenuto dal Comune di Palermo valido per il percorso di miglioramento della politica open data.

Altro elemento di novità delle linee guida è il riferimento alla costruzione di API (Application Programming Interface) nella realizzazione delle nuove piattaforme digitali del P.O.N.  METRO di Palermo. La realizzazione di API permette a software di terze parti di interrogare in tempo reale i database comunali nei quali sono custoditi/gestiti i dati tematici, al fine di consentirne un ampio riuso creativo per infiniti scopi. 

Nella riunione del Team open data del 21 dicembre 2016 sono state fissate alcune scadenze operative, dal Responsabile open data comunale, che sono state riportate nella Deliberazione n. 97 del 4 maggio 2017.  Entro giugno 2017 il portale open data comunale di Palermo si renderà “conforme” al  Profilo dei metadati DCAT_AP_IT e sempre entro giugno 2017 ci sarà il traghettamento ad una nuova versione grafica del portale (mostrata all’opendataday 2017) a cura dello staff del Webmaster (al quale vanno ringraziamenti per il supporto e per gli input forniti durante questi anni per il miglioramento del processo di pubblicazione dei dataset).

LAST BUT NOT LEAST: CREDITS – la nuova versione di linee guida open data 2017 partecipate vede un paragrafo dedicato esclusivamente ai crediti. Un azione di “rispetto” e di “ringraziamento” nei confronti di chi individualmente ha contribuito, con la propria azione civica volontaria, a migliorare un pezzo di Amministrazione comunale.

I 7 cittadini palermitani sono ringraziati per la redazione della versione 2013 delle linee guida ed un ringraziamento specifico va a Davide Taibi del CNR Palermo (nonché membro di Opendatasicilia) per avere dedicato tempo e fornito un importante contributo professionale per la definizione operativa del profilo DCAT_AP_IT dei dati e metadati dei dataset nella nuova versione delle linee guida 2017 versione (appunto) “partecipate“.

Le linee guida open data 2017 versione partecipata DEL COMUNE DI PALERMO, appena approvate, sono RILASCIATE CON LICENZA CREATIVE COMMONS, BY (ATTRIBUZIONE), SA (CONDIVIDI ALLO STESSO MODO) E SONO disponibili in formato ODT a questo link.

Un altra piccola paginetta di storia sui dati pubblici è stata scritta a Palermo e Opendatasicilia c’entra.

Tutorial da file pdf a shapefile

Dopo il comunicato stampa sul sito del Comune di Palermo   Tram – Entra nel vivo la fase di progettazione per le nuove linee verso ZEN-Mondello, Bonagia e lungo la costa con Ciro Spataro abbiamo pensato di fare una delle nostre mappe…ovvero la mappa del ferro come l’ha chiamata Ciro.

Per realizzare la mappa c’è quasi tutto, occorrono solo le nuove linee del tram in formato vettoriale.

Gran parte dei vettori, (linee tram esistenti, passante ferroviario, etc etc) sono reperibili su OpenStreetMap, facili da estrarre con overpass-turbo.eu, qui un articolo molto utile su geomappando  o un interessante video di GISTIPSTER.

In alternativa si può scaricare l’intera cartografia di Palermo, o qualsiasi altra città, da Estratti OpenStreetMap,

Per ricavare i vettoriali delle nuove linee del tram abbiamo pensato di usare il file pdf allegato al comunicato stampa Tavola 14 – planimetria riassuntiva scala 25.000 dell’intero sistema di trasporti su rotaia.

La stessa e tutte le altre tavole del progetto si trovano sul sito del Comune di Palermo, (qui l’intero progetto in file pdf del trasporto pubblico di massa)

Screenshot del file pdf Tavola 14 – planimetria riassuntiva scala 25.000

L’idea è semplice…

  1. Convertire il file pdf in dxf
  2. Georeferenziare il nuovo file ottenuto con Qgis
  3. Verificare il risultato della georeferenziazione e correggere manualmente eventuali imperfezioni.
  4. Esportare i nuovi file in versione geojson per umap

Conversione da PDF in DXF

Per la conversione da pdf a dwg/dxf in rete si trovano tanti programmi, open source e non.

Dopo qualche ricerca e qualche test, abbiamo scelto di usare progeCAD 2017 Professional in versione di prova gratuita completa per 30 giorni. Gli stessi risultati si possono ottenere con DraftSight o con il più semplice PDF to DWG Converter.

Qui trovate un breve video che spiega come caricare un file pdf in progeCAD

Qui un video che spiega come caricare un file pdf in DraftSigh

Seguendo il video dimostrativo di progeCAD 2017 Professional si intuisce facilmente come caricare un file pdf

Dopo qualche minuto di elaborazione il pdf è stato convertito in dwg.

L’importazione è riuscita, adesso non resta che pulire il file e lasciare solo quello che ci interessa.
Come si può notare dalle immagini ad ogni colore presente nel file pdf corrisponde un layer nel dwg.

A questo punto disattiviamo/eliminiamo tutto ciò che non ci interessa e facciamo un po di ordine.

Rinominiamo i layer, così li riconosciamo subito.

Con il comando elimina, presente nel menù File → Utilità → Elimina

Eliminiamo tutto il superfluo, questa utility, ci consente di tenere il file sempre pulito e leggero.

Una volta ripulito il file, è necessario posizionare le linee sulle coordinate di Palermo, in modo da non complicarci troppo il lavoro con Qgis.

Per far ciò, abbiamo inserito come riferimento esterno, un file georeferenziato e convertito in dxf della base cartografica scaricata da OpenStreetMap.

Dal menù Inserisci → riferimenti esterni, carichiamo una parte della cartografia OSM, (dallo screenshot si nota poco, ma è quel puntino all’interno del cerchio rosso)

Come si può notare le linee importate dal file pdf, sono fuori scala e posizionate a caso.

Utilizzando il comando Allinea e con un po di pazienza riusciamo, traslare le nuove linee del tram sulle coordinate di Palermo.

Adesso le linee, grossolanamente, sono sulle coordinate di Palermo, affineremo la georeferenziazione con Qgis.

Per ottenere un buon risultato finale, è opportuno georeferenziare separatamente le 4 linee che ci interessano.

Di conseguenza salviamo/esportiamo ogni linee in un nuovo file dfx.

Ecco un file dwg con la singola tratta c – d, grossolanamente posizionato sulle coordinate di Palermo.

La georeferenziazione

Per questa seconda fase è necessario un software gis, nel nostro esempio usiamo Qgis e il plugin Plugin Vector Bender spiegato in questo video da Salvatore Fiandaca

Per prima cosa importiamo il file dxf in qgis, per farlo abbiamo diversi metodi, usare i plugin  dxf2shp o dxf import/convert, o nel caso di file dfx con molte più informazioni si può usare Spatialite, tutto spiegato sempre da Salvatore Fiandaca nel suo blog pigrecoinfinito

Dove aver caricato il file dxf, salviamo lo stesso in formato shp, perchè sul formato dfx non possiamo fare modifiche.

Attiviamo il plugin Vector Bender ed iniziamo ad inserire punti per la georeferenziazione.

Questo è il risultato di un primo test, più punti inseriamo e più precisi siamo, migliore sarà il risultato finale.

…e dopo qualche  tentativo e dopo alcune correzioni manuali la linea “sembra” essere al suo posto. Salviamo il lavoro appena fatto in un nuovo file shp.

Sicuramente non è precisa come l’originale, ma rende l’idea.

Per completare il lavoro, basta ripetere la stessa procedura per le altre 3 linee rimanenti

Qualcuno si starà chiedendo… Ma non era più semplice ridisegnare le linee…?
Forse si, ma il tempo e la pazienza non mi mancano e soprattutto mi piace sperimentare, magari si può usare questo metodo con file pdf molto più complessi, ed in quel caso si risparmia un bel po di tempo…

Osservare il cambiamento di una città grazie alla cartografia: il caso di Palermo

Dopo aver letto l’articolo di @napo mappa di Trento 1915 – da un libro di Cesare Battisti, ne sono rimasto affascinato, sia per il gran lavoro fatto dalla biblioteca comunale di Trento, nel digitalizzare il contenuto del libro e renderlo di dominio pubblico e sia per la parte tecnica e dall’analisi, che si può fare agevolmente, mettendo a confronto una carta storica ed una di oggi.

Brevemente, con il plugin leaflet-tileoverlay-mask, si ottiene un effetto “spot” sulle cartografie, che ci permette di mettere a confronto, dinamicamente e istantaneamente, una carta storica con lo stato attuale.

La realizzazione tecnica, è più semplice di quello che si pensa

Subito ho pensato come poter usare questa tecnica sulle cartografie storiche e non di Palermo.

Il primo test l’ho fatto, con la cartografia del nuovo schema di massima del PRG di Palermo presentato dal Comune nel 2015 e georeferenziata da @cirospat, con mapwarper.net 

constatando, in prima persona, la bontà del lavoro fatto da @napo.

In questo caso ho semplicemente sostituito la base cartografica “L.tileLayer.mask” di riferimento, nel file di esempio fornito con plugin leaflet-tileoverlay-mask”.

Inserendo la nuova mappa tiles e centrando la mappa sulle coordinate di Palermo, il lavoro è fatto.

Nuova base tiles

var prg = L.tileLayer.mask(‘http://mapwarper.net/maps/tile/19437/{z}/{x}/{y}.png

Zoom e coordinate di base

var map = L.map(‘map’, {attributionControl:true}).setView([38.11127,13.3534422], 14);

Usando la versione originale del plugin leaflet-tileoverlay-mask, ho notato un limite, ovvero, l’impossibilità di utilizzare più basi cartografiche, per fare l’analisi.

Con il contributo fondamentale di @piersoft, sono riuscito a superare l’ostacolo.

Dopo questo piccolo test, mi sono chiesto, come poter sfruttare al meglio la tecnica.

Confrontandomi con @aborruso e @cirospat, del gruppo di opendatasicilia, sull’uso della tileoverlay-mask e conoscendo il Portale Cartografico, realizzato dalla Sispi spa (società in house del comune di Palermo), subito abbiamo pensato di utilizzarla, con le cartografie storiche. Rese disponibili dall’ottimo lavoro di scansione e georeferenziazione del geom. Liborio Plazza, dipendente del Comune di Palermo e  dalla Sispi.

L’obiettivo era chiaro, costruire un atlante, dove poter mettere a confronto, velocemente, le carte storiche con la città dei nostri giorni.

Scaricate e georeferenziate le cartografie storiche, da @aborruso e @cirospat, a me, non è rimasto altro da fare, che organizzare il materiale e dargli una veste grafica user friendly.

Spero di esserci riuscito!

L’URL è questo http://siciliahub.github.io/mappe/atlante_carto_pa/index.html

Gli strumenti che abbiamo utilizzato per il il progetto dell’atlante sono:

  1. Dati da un server WMS: scaricarli, riproiettarli, comprimerli, tassellarli e piramidarli da riga di comando, di @aborruso;
  2. Leaflet, per creare l’interfaccia di web mapping;
  3. Leaflet-hash, per generare URL che contengono livello di zoom e posizione corrente;
  4. Leaflet-tileoverlay-mask, per la sovrapposizione delle tile con effetto svg maschera, un effetto “spot“ che ci permette di vedere come era la città al tempo in un particolare punto;
  5. Sidebar-v2, per creare sidebar a scomparsa;
  6. Leaflet.MousePosition, è un semplice controllo della posizione del mouse. Esso mostra le coordinate geografiche del puntatore del mouse, mentre viene spostato sulla mappa;
  7. Leaflet-graphicscale, è un semplice barra di scala con effetto animato al cambio dello zoom;
  8. Map Warper, è uno strumento open source per georeferenziare immagini, nato grazie al contributo del progetto spacetime della Biblioteca Comunale di New York, sviluppato, ospitato e mantenuto da Tim Waters;
  9. Btns, è un piccolo modulo CSS che permette di inserire pulsanti reattivi.
  10. Leaflet.Basemaps, consente di creare un controllo dell’interfaccia utente per la scelta della mappa di base utilizzato sulla mappa.

Il codice script usato per il progetto è liberamente scaricabile dalla pagine html dell’atlante. Basta sostituire i relativi L.tileLayer.mask e il setView([38.11127,13.3534422] per adattarla alle proprie esigenze.

Gli sfondi della mappa sulla quale visualizzare le cartografie storiche sono vari Openstreetmap, Google Road e Satellite, Esri Standard e Satellite.

Alcuni esempi

Il bello di questa mappa è scoprire come questa città sia cambiata e ognuno troverà degli esempi diversi nei luoghi che conosce meglio.

Villa Trabia

La via Piersanti Mattarella, già “Via Villa Trabia” si estendeva da via Notarbartolo a poco dopo l’ingresso del CEI (l’istituto Gonzaga).

Un “fiume” limitrofo a Villa Sperlinga

Il “Passo di Rigano” che costeggia Villa Sperlinga è un colpo d’occhio.

Il mare era “più vicino”

Era subito dopo Porta Felice e probabilmente se ne sentiva molto più forte la presenza.

……. e ora scopri anche tu i cambiamenti nel tuo quartiere, …..buon viaggio nella storia cartografica della città di Palermo

OPENDATAFEST 2017, Caltanissetta 2-4 giugno 2017, #ODFest17

#ODFest17

Dal 2 al 4 giugno 2017 a Caltanissetta si terranno iniziative per conoscere il mondo dei dati e per stimolare la conoscenza aperta, incontrare persone che se ne interessano, condividere esperienze e costruire prototipi insieme. Quest’anno si tratta di un evento organizzato dalle comunità Open Data Sicilia e Spaghetti Open Data.

Un portale informativo è già stato redatto http://opendatafest.it/ e contiene le informazioni utili per coloro che intendono partecipare, non solo come uditori, ma anche come relatori.

Questa mappa illustra i siti dove si terranno gli eventi, i punti di riferimento del trasporto pubblico locale e i siti per il pernottamento.

Ecco alcuni alcuni temi che saranno approfonditi al raduno (ma non sono necessariamente solo questi):

  • pratiche e metodi di trasparenza;
  • i dati della amministrazione aperta;
  • la condivisione dei dati aperti e il loro riuso;
  • i dati aperti per comprendere meglio la realtà e come supporto alle decisioni;
  • fare impresa con i dati aperti (casi di business basati sugli Open Data);
  • l’impatto sulla società dei dati aperti;
  • il trattamento dei dati, l’analisi e la loro visualizzazione;
  • metadati, ontologie e approcci semantici;
  • raccontare il territorio a partire dai dati;
  • strumenti hardware e software per la raccolta e la condivisione di dati aperti.

I tre giorni avranno questa struttura:

  1. venerdì 2 giugno: la giornata è divisa in due parti:
    • mattina: terremo una conferenza in cui aggiornarci a vicenda sulle cose più importanti che sono successe nell’ultimo anno nel mondo degli Open Data;
    • pomeriggio: ci saranno delle sessioni parallele sui temi che arriveranno dalle proposte che faranno i partecipanti stessi, come per i BarCamp (per chi li conoscesse).
  2. sabato 3 giugno faremo un Civic Hackathon: produrremo insieme qualcosa di concreto. A differenza degli hackathon “normali”, il civic hackathon non si concentra solo sulla produzione di software, ma anche su analisi di leggi e normative o azioni di monitoraggio civico. Qualunque persona interessata al tema può esserne protagonista, anche se non sa programmare. Anche in questo caso, l’ambito e le possibili sfide da affrontare saranno frutto di quelle proposte che arriveranno dai partecipanti stessi;
  3. domenica 4 giugno faremo una giornata di formazione per la comunità. Sarà accessibile anche a principianti assoluti: il suo obiettivo è rendere tutti in grado di “fare delle cose con i dati” – una cosa molto pratica, insomma. Come per il sabato, anche in questo caso le proposte emergono direttamente dal basso.

E’ forse l’iniziativa civica sui dati aperti più interessante d’Italia del 2017, perché realizzata da persone che dentro o fuori le pubbliche amministrazioni sono accomunate dalla passione e consapevolezza dell’importanza della conoscenza condivisa.

Partecipa all’OPENDATAFEST 2017

Se partecipi puoi anche farlo sapere aggiornando la cover del tuo profilo Twitter o di Facebook:


(foto in alto di Lillo Miccichè)

Open data day 4 marzo 2017 a Palermo (u pitittu ci fazzu veniri)

(“u pitittu ci fazzu veniri” = “l’appetito gli faccio venire”, frase usata da una rete di venditori ambulanti di sfincione a Palermo per attirare l’attenzione dei passanti)

Il primo sabato di marzo è ormai come una ricorrenza sacra, si festeggia l’open data day in molte città del mondo http://opendataday.org/ e siamo contenti perchè ci incontriamo in tante persone appartenenti a mondi lavorativi e didattici diversi ma accomunati dai dati. E ovviamente Palermo non manca all’appello.

Andrea Borruso mi ha detto che potrei scrivere questo post perché è un evento che ho aspettato sin dallo scorso dicembre, da quando, prima di Natale, abbiamo fatto un incontro pubblico del Team Open Data comunale in compagnia di cittadini e appassionati di dati pubblici. E così in effetti è, mi piace l’open data day e mi ci sono appassionato da quando 4 anni fa per caso conobbi un po di persone con le quali ormai collaboro in maniera costante e felice, aumentando le mie competenze nell’ambito dei dati e del loro riuso.

Quest’anno per l’opendataday abbiamo il comune di Palermo, impegnato in un processo “culturale” di partecipazione e apertura dei dati, il Consorzio ARCA, un incubatore di imprese ormai diventato un’istituzione dell’innovazione a Palermo e OpendataSicilia, questa community di cittadini – e amici – che si divertono a creare esperimenti riusando dati, ma che hanno anche una grande abilità: essere propositivi nei confronti di pubbliche amministrazioni, scuole, e altre comunità che operano con i dati sul territorio nazionale.

Il menù del 4 marzo palermitano prevede:

  • antipasto di linee guida comunali Open Data 2017 in salsa partecipata
  • open data variegati della Polizia Municipale
  • vulnerabilità sismica degli edifici residenziali di Palermo in una mappa da open data
  • una spruzzatina di “A scuola di Opencoesione”
  • start up che usano i dati, per intenderci Smarteating
  • Università e Ricerca insieme per  iniziative e progetti in ambito open data
  • mappatura dei servizi accessibili nelle strutture ricettive
  • open data e Sanità
  • e per finire il dolce:  Web scraping per tutti, introduzione al tema e guida all’uso di alcune tecniche e strumenti

… un ni putemu lamintari st’annu, ….. u pitittu ci fazzu veniri !

Ah dimenticavo, ci vediamo il 4 marzo 2016 alle 9.30 al Consorzio ARCA in viale delle Scienze, edificio 16, Palermo.

Registratevi qui

L’Agenda Unica dei Movimenti Catanesi in Open Data

L’Agenda Unica è un coordinamento delle associazioni e dei gruppi operanti a Catania nell’area della cosiddetta sinistra antagonista. Nasce sotto l’impulso di Officina Rebelde e vi partecipano svariati gruppi tra i quali i Briganti Rugby Librino, Red Militant, la Rete Antirazzista Catanese , il Collettivo Politico Experia, il Collettivo Universitario Catanese e l’Unione degli Studenti.

Tra gli strumenti di cui si è dotato questo coordinamento troviamo un calendario condiviso nel quale ogni gruppo inserisce i propri eventi e iniziative di carattere politico. Lo spirito di questo foglio è di evitare, ove possibile e ove si voglia, la sovrapposizione di iniziative. Ovviamente, una delle sue ricadute è quella di mettere a conoscenza dei propri eventi tutti gli altri partecipanti all’agenda.

Inizialmente l’agenda unica usava un gruppo facebook per questi fini, che poi si è evoluto in un google sheet. Dopo circa un mese da questo passaggio al google sheet. Michele Maresca, Alberto Berrittella ed io abbiamo quindi iniziato a realizzare, nell’ambito dell’opendatahacklab di Hackspace Catania e sulla falsa riga di quanto fatto a Matera, una ontologia RDF/XML dell’agenda unica, basata sul google sheet, ed un corrispondente sito web. Appena pronto, abbiamo proposto di liberare i dati degli eventi in agenda agli altri partecipanti, che hanno accolto la proposta con entusiasmo.

Sono molto lieto che la condivisione della conoscenza, tramite gli open data, inizi ad essere percepito come un valore e non come un tabù (cfr. son tutti buoni con gli open data degli altri). Mi auguro inoltre che questa operazione favorisca la diffusione delle iniziative e, di conseguenza, delle idee e proposte portate avanti dai vari gruppi  che partecipano ad Agenda Unica.

Invito quindi tutti coloro i quali vogliano contribuire a diffondere notizie su questo genere di eventi ad usare i dati aperti che mettiamo a disposizione. Invito inoltre tutte le altre associazioni e i singoli che vogliano liberare i dati sui propri eventi a replicare l’iniziativa creando una propria agenda (la conversione in RDF/XML renderà infatti semplice l’integrazione tra Agende anche eterogenee). 

 

Il sito di Agenda Unica, con i collegamenti ai sorgenti e all’ontologia, è disponibile alla seguente URL:

http://www.opendatahacklab.org/agenda-unica/