OpenARS: una prima esplorazione dei dati

A meno di un mese da Open Data Sicilia 2018, che si terrà a Palermo il 9 e 10 novembre, entriamo adesso più nel vivo nel progetto OpenARS, i linked data dell’Assemblea Regionale Siciliana (ARS), che verrà presentato nel corso dell’evento.
Nell’ultimo post ci eravamo lasciati con la presentazione dell’ontologia OpenARS, creata per descrivere in modo formale le diverse tipologie di dati dell’ARS e le loro interconnessioni.
L’ontologia sviluppata consente di dare ad ogni risorsa un significato e di trasformare i dati dell’ARS in un enorme grafo direttamente interrogabile, esplorabile e riutilizzabile in altri contesti.
Ma come li interroghiamo i dati?
Per farlo è necessario introdurre il linguaggio principe usato nel Web Semantico per le interrogazioni, cioè il linguaggio SPARQL.
Il linguaggio SPARQL è una raccomandazione W3C che definisce in modo standard come interrogare i dati, a partire da grafi RDF distribuiti nel Web. Il criterio di interrogazione è basato su un meccanismo di pattern matching, nello specifico dal costrutto triple pattern, che riflette il modello di asserzioni RDF delle triple e fornisce un modello flessibile per le ricerche.
Lo schema generico di un’interrogazione SPARQL è il seguente:

dove
  • PREFIX è la clausola che definisce prefissi e namespace, comoda per abbreviare le URI;
  • SELECT è la clausola che definisce le informazioni che vogliamo estrarre dal repository;
  • FROM è la clausola che definisce il grafo (o i grafi) da esplorare. Può essere sia locale sia remoto. Possiamo anche inserire clausole come FROM NAMED e GRAPH per specificare sorgenti dati multipli;
  • WHERE è la clausola che definisce il pattern del grafo che intendiamo cercare nel dataset; rappresenta la parte più importante della query;
  • ORDER BY è la clausola che mi consente di ordinare i risultati della ricerca.
Immaginiamo di avere un dataset contenente un insieme di libri (risorse) descritti da una specifica ontologia nel file book.rdf, pubblicato nel Web secondo i principi dei Linked Data. Immaginiamo di identificare il dataset nel Web col seguente URL:
http://example.org/books.rdf .
Il nostro obiettivo è conoscere tutti i libri presenti del dataset con i relativi autori; per fare questo dobbiamo estrarre tutte le risorse di tipo libro (?book) e tutte le persone (?person) che sono autori (ex:hasAuthor) dei libri. Dei libri vogliamo conoscere i titoli (?book_title) e i nomi e cognomi degli autori (?person_name, ?person_surname).
La query di interrogazione sarà la seguente:

e questo un ipotetico risultato
Passiamo adesso ad OpenARS e proviamo ad effettuare un’interrogazione reale direttamente sul suo repository. A differenza del file pubblicato nell’esempio precedente i dati di OpenARS sono caricati su un server di storage dedicato che contiene l’intera base di conoscenza nella forma di triple/asserzioni . Per poter effettuare delle interrogazioni sui dati  è necessario conoscere l’URL punto di ingresso, conosciuto con il nome di SPARQL endpoint.
E’ possibile effettuare l’interrogazione direttamente dal client Web fornito dal triple store, come nella figura sottostante oppure è possibile eseguire query SPARQL da codice sorgente di un qualsiasi linguaggio di programmazione se si vogliono sviluppare applicazioni che interagiscono con i dati.
Prima di effettuare qualsiasi tipo di ricerca è fondamentale conoscere l’ontologia di riferimento al fine di poter interrogare correttamente i dati per tipologie di classi e per connessioni esistenti tra le risorse.
Facciamo adesso qualche esempio di interrogazione relativa a statistiche sull’attività legislativa dell’ARS. Per esempio, vogliamo sapere quanti disegni di legge sono stati presentati nel corso della 16° legislatura.
La query SPARQL è la seguente:

che restituirà come risultato il valore 1346.  Provare per credere.
La query assomiglia molto al linguaggio SQL e risulta di per sé molto leggibile. Nel campo WHERE selezioniamo tutte le risorse dello store di tipo ars:DisegnoDiLegge che sono collegate, tramite la proprietà ars:legislatura, alla risorsa che identifica la sedicesima legislatura ( http://dati.openars.org/legislatura/xvi ).
La selezione restituisce un certo numero di istanze e nel campo SELECT decidiamo di calcolare il numero totale di tali istanze, tramite l’operatore di aggregazione count, che corrisponde al numero totale di disegni di legge della 16° legislatura.
Vediamo adesso qualcosa un pò più complesso.
Voglio sapere la classifica top ten  dei disegni di legge presentati nella 16° legislatura suddivisa per materia. 
La query SPARQL è la seguente:

Questo il risultato:

Alcune considerazioni finali:
  • questi sono solo piccoli esempi che si possono fare con i dati ARS, nel prossimo post presenteremo casi molto più complessi che prenderanno in considerazione interrogazioni a sorgenti dati multipli;
  • passando dal Web di documenti al Web di dati (linked-data), il Web diventa machine-understandable e il tutto risulta esponenzialmente vantaggioso in termini di flessibilità e di interoperabilità semantica;
  • con la pubblicazione dei dati in modalità linked il Web diventa data-centric e le possibili interrogazioni dei dati, grazie alle loro interconnessioni, sia dentro che fuori al dataset, diventano pressoché infinite e delle più disparate;
  • non ci credete? provate a reperire nel Web tradizionale i nomi di TUTTI i sindaci le cui città hanno lo stesso patrono della città collegio di elezione di un qualsiasi deputato dell’ARS

    Nel prossimo post vedremo quanto sarà facile farlo con OpenARS.

Alcuni link per approfondire il linguaggio SPARQL
p.s. le iscrizioni al raduno sono ancora aperte. I posti sono gratuiti ma limitati. Per maggiori informazioni questo è il sito dell’evento.
Alla prossima

Alla scoperta di OpenARS – i Linked Data dell’Assemblea Regionale Siciliana

Come già anticipato nel precedente post, al raduno Open Data Sicilia 2018 verrà presentato il progetto OpenARS – i linked datadell’Assemblea Regionale Siciliana. Il progetto OpenARS ha l’obiettivo di pubblicare il patrimonio informativo dell’ARS in un modo completamente nuovo, abbracciando il mondo dei Linked Data, sfruttando le potenzialità del Web Semantico, consentendo la fruizione dei dati dell’ARS in modo flessibile e dinamico.

Vediamo adesso qualche dettaglio in più sul progetto.

Come primo passo sono stati estratti i dati dell’ARS dal sito istituzionale www.ars.sicilia.it attraverso appositi programmi, chiamati scraper, in grado di “grattare il testo dalle pagine Web e di salvare il contenuto in maniera strutturata, cioè individuando per ogni dato estratto la tipologia di appartenenza. Attraverso questi tool sono state estratte informazioni relative a tutte le legislature su deputati, assessori, incarichi e gruppi parlamentari mentre è stata estratta, invece, tutta l’attività parlamentare della 16° legislatura relativa ai disegni di legge, alle risoluzioni, alle interpellanze, alle interrogazioni, agli ordini del giorno, agli iter legislativi e alle sedute.

Applicare i principi Linked Data vuol dire passare da un Web di documenti a un Web di dati. Nel Web semantico non ci sono più documenti ma dati o risorse. Ogni dato è indipendente, collegato agli altri dati e definito formalmente da un’ontologia.
Per i dati ARS è stata sviluppata infatti un’apposita ontologia, chiamata OpenARS, in grado di descrivere in modo formale, sfruttando le potenzialità del Web semantico, le diverse tipologie di dati dell’Assemblea Regionale Siciliana e le interconnessioni che intercorrono tra gli stessi.

L’ontologia ha consentito di dare ad ogni risorsa un significato e di trasformare i dati dell’ARS in un enorme grafo direttamente interrogabile, esplorabile, riutilizzabile in altri contesti, in modo da arricchire il valore dei dati presenti sul sito ARS, abilitare e facilitare l’analisi dati, creare nuova conoscenza dai dati.

Questo è stato reso possibile applicando i principi dei Linked Data che prevedono la definizione univoca di ogni risorsa sul Web, la descrizione di ciascuna risorsa e l’interconnessione delle risorse con altri dataset, apportando così un importante contributo al progetto  LOD – Linked Open Data.

Con OpenARS sono state raggiunte le “5 stelle” di Tim Berners-Lee, cioè il livello più alto nella classificazione degli Open Data in termini di apertura e fruibilità.

 

Nei prossimi post vedremo più nel concreto cosa sono i LOD e come interrogare direttamente  i dati di OpenARS, esploreremo il grafo dei dati per capire come sia possibile iniziare a sviluppare applicazioni, report, ricerche, monitoraggi e statistiche.

Non dimenticatevi di iscrivervi al raduno Open Data Sicilia 2018. L’ingresso è gratuito ma i posti sono limitati.

Rendere pubblico il database delle infrastrutture del Comune di Palermo

Il recente crollo del ponte Morandi di Genova ha evidenziato l’importanza di conoscere lo stato di salute delle infrastrutture di un territorio e quello delle opere di manutenzione correlate. È importante per chi nella Pubblica Amministrazione –  a vario titolo – prende decisioni e fa scelte, così come per i cittadini che volessero poter conoscere queste informazioni, monitorarle e attivare eventuali azioni e scelte conseguenti.

Si tratta di dati che, per tutto il territorio nazionale, non sono però quasi mai disponibili pubblicamente.

Il Comune di Palermo il 24 agosto del 2018 ha dato notizia di svolgere da tempo un “Monitoraggio costante di tutti i 25 ponti che servono la viabilità cittadina” e che in particolare la “Prima attività che ha condotto l’ufficio infrastrutture (oggi infrastrutture e servizi a rete) dell’area tecnica della Riqualificazione Urbana ed infrastrutture (oggi rigenerazione urbana, opere pubbliche ed attuazione delle politiche di coesione) è stata la creazione di un catasto informatizzato, un vero data base delle infrastrutture e delle condizioni d’uso e di conservazione.
L’attività ha permesso il censimento di 25 fra infrastrutture di viabilità a ponte, viadotti o cavalcavia. Nell’ambito di tale procedimento sono state avviate verifiche speditive sullo stato delle infrastrutture viarie nel territorio comunale”.

Chiediamo all’“Area tecnica della riqualificazione urbana e della pianificazione urbanistica”, al Capo Area Nicola Di Bartolomeo e all’assessore alla “Rigenerazione Urbanistica e Urbana” Emilio Arcuri, di rendere pubblico il catasto informatizzato delle condizioni d’uso e di conservazione (citato nella relazione del 24 agosto).

Farlo sarebbe un atto (concreto e di valore) di trasparenza, apertura e efficienza nei confronti della cittadinanza e soprattutto farebbe da esempio e creerebbe emulazione (che su questi temi è proprio necessaria).
Questa richiesta viene pubblicata qui e inviata anche per email ai dott. Di Bartolomeo e Arcuri.

In attesa, alla luce dell’elenco dei ponti citati nella relazione, Gianni Vitrano (grazie) ha creato e pubblicato la mappa “Localizzazione dei ponti di Palermo” usando i dati di OpenStreetMap (utilizzando overpass-turbo.eu) e mettendoli ove possibile in relazione con i dati della suddetta relazione. Purtroppo al momento è poco più di un elenco e fornisce ben poche informazioni ma proviamo ad immaginarla completa di tutte le informazioni disponibili nel catasto informatizzato predisposto dal Comune, la mappa diventerebbe un valido strumento a disposizione della Pubblica Amministrazione e dei cittadini all’insegna della trasparenza ma anche creando opportunità di un utilizzo efficiente dei dati disponibili.

Comune di Palermo: arrivano i dati in real time per alcuni degli autobus pubblici di AMAT

AMAT, la municipalizzata del Comune di Palermo, collabora da tempo con Moovit per i dati i real time di alcuni degli autobus della rete della città, visibili nella app dell’azienda.

Da oggi, tramite API e per 20 linee, sarà possibile in tempo reale accedere ai dati relativi agli arrivi di una linea del Trasporto Pubblico Locale ad una fermata.

Le linee sono: 100, 101, 102, 106, 108, 109, 124, 226, 246, 304, 307, 309, 327, 422, 619, 603, 704, 731, Navette Arancione centro storico ed Express.

Sarà possibile rispondere in modo programmatico a una domanda di questo tipo: “Mostrami i prossimi arrivi della linea 101 alla fermata Cavour“.

Sarà necessario di base fornire la API KEY del servizio, una coppia di coordinate dell’area del comune (per individuare il comune di Palermo), il numero della linea da monitorare e la fermata per cui si vuole il tempo di attesa (qui la documentazione ufficiale).

Ecco un esempio di query con cURL:

Che darà come risultato qualcosa con questa struttura:

La notizia è appena arrivata (la trovate in basso, nella descrizione di questo dataset) e non abbiamo fatto ancora nessun test serio, ma è un’ottima notizia. Perché avere in modo programmatico i tempi di attesa a una fermata per una linea, può generare servizi di gran comodità per i cittadini e per tutto l’indotto legato ai trasporti.
Almeno per quella parte di città coperta dalle linee per cui il servizio è attivo (chiederemo ad AMAT quali saranno le evoluzioni del servizio).

Creare un’app per smartphone per fotografare dei QR code da mettere in ogni fermata, che fatta la foto restituisca quando passeranno le linee servite, o un’app per Google assistant a cui chiedere “Ok google, quando passa da qui il 101?”, o un bot per Telegram o Facebook Messenger, è a questo punto cosa abbastanza semplice.

Una nota a caldo: chiediamo ad AMAT e al comune di pubblicare via API anche l’elenco delle linee per cui è abilitato questo servizio. Nel tempo cambieranno e sarà essenziale per gli sviluppatori avere un modo per essere avvisati automaticamente di queste variazioni.

A partire dal giugno del 2019 ci sarà il progetto City Compass (grazie Marco Lombardo per la segnalazione) – Piattaforma di gestione e tracciamento in tempo reale flotta autobus e Sistema integrato a servizio del cittadino per la previsione di arrivo dei mezzi di trasporto pubblico –  ma questa è un’altra storia.

Utilizzare gli Open data…”in sicurezza”

È ormai da un anno e mezzo che per lavoro mi occupo di sicurezza negli ambienti di lavoro. Gestione, progettazione ed implementazione dei migliori strumenti tecnici sono quei punti chiave atti ad adeguare le aziende alle norme vigenti, in modo tale da ridurre al minimo gli eventuali infortuni e morti nei luoghi di lavoro. Questa nuova esperienza lavorativa, e l’assiduo interesse per gli open data, ha prodotto in maniera quasi del tutto naturale l’idea di coniugare i due temi.

La concretizzazione di questa idea è stata resa tale dalla pubblicazione dei dati aperti da parte dell’Istituto Nazionale per l’Assicurazione contro gli Infortuni sul Lavoro (INAIL).Sul portale dell’INAIL si può infatti trovare una pagina dedicata alla pubblicazione dei dati aperti. Tali dati forniscono due tipologie di informazioni: una inerente al processo organizzativo/gestionale dell’Istituto, l’altra inerente la gestione dei fenomeni di cui si occupa l’Istituto (infortuni e morti nei luoghi di lavoro).

Sfruttando la seconda tipologia dei dati, si è pensato di creare un’infografica, focalizzando l’attenzione sulla regione Sicilia.
L’obiettivo principale di questo strumento è quello di monitorare l’andamento delle morti e degli infortuni denunciati nei luoghi di lavoro, ma il fine ultimo è quello di sensibilizzare la collettività (datori di lavoro e lavoratori). Una presa visione dei dati reali deve essere infatti l’input per una maggiore consapevolezza sul tema della salute e sicurezza dei lavoratori.

In collaborazione con Monica Meschis  i dati raccolti vengono rappresentati con cadenza mensile tramite un’infografica che fornisce le seguenti informazioni:

  • N. Infortuni/Morti totali
  • N. Infortuni/Morti per capoluoghi di provincia regione Sicilia
  • N. Infortuni/Morti per fasce di età
  • N. Infortuni/Morti per sesso

Parallelamente, dall’inizio di quest’anno, il progetto è stato implementato con la realizzazione di un’altra infografica che rappresenta il confronto, dei soli dati complessivi, con l’anno precedente del mese preso in oggetto.

Per estrarre i valori aggregati di insieme il software utilizzato è Microsoft Excel ( i dati vengono pubblicati sul sito dell’INAIL in formato CSV, XML, RDF ed in formato PDF), mentre le infografiche sono state realizzate con l’ausilio di Adobe Illustrator.

Sulla base dell’esperienza dei dati raccolti per la regione Sicilia, l’obiettivo futuro è quello di poter fornire un’ulteriore scrematura con riferimento alle mansioni, e di poter ampliare il progetto anche su altre regioni italiane.

Gli attuali aggiornamenti periodici possono essere consultati su Twitter tramite l’hashtag #OpenDataSicurezzaLavoro (o #OpenData #SicurezzaLavoro o sul profilo @pepperinella) o su Linkedin seguendo il profilo @GiuseppeRinella

I dati di soldipubblici.gov.it sul tuo portale open data

I portali open data hanno sempre bisogno di essere alimentati con dataset nuovi e soprattutto aggiornati.  Attivare quei meccanismi che consentono di generare file aperti e allo stesso aggiornati, nella Pubblica Amministrazione, è un processo che molte volte richiede tempo e soprattutto un cambio di mentalità; è un discorso questo, che si sente spesso nella PA.

La comunità di opendatasicilia mi ha spesso insegnato che, è mostrando la potenzialità dei dati aperti con il riuso, che quei meccanismi di interesse si possono sbloccare, attirando nuove idee e nuovi dati. Avere quindi dati aperti, aggiornati e attendibili, è cosa rara e complicata, ma quando ne puoi discutere un po’ in gruppo e alimentare le tue fantasie e le tue idee con uno script di poche righe ma efficientissimo, allora la vita sembra prendere una piega del tutto diversa!

Sotto la spinta delle mie esigenze lo script (creato da Andrea Borruso), originariamente nato per scaricare i dati di un singolo ente da soldipubblici.gov.it, ha consentito la pubblicazione di una dataset sul portale open data della Città Metropolitana di Napoli, in due formati (csv e json), con aggiornamento automatico settimanale.

Ma andiamo per gradi.
Il sito soldipubblici.gov.it consente  di consultare e scaricare  i dati della spesa pubblica  ricercando un ente.

È possibile fare il download del CSV, al click su un pulsante, ma nel mio caso avevo bisogno di automatizzare questo processo.

Lo script (accessibile qui) è scritto in bash, sfrutta le utility httpie, jq e csvkit e funziona in questo modo:

  • si imposta il codice dell’ente di interesse (i codici dei vari enti si trovano qui)
  • il dato viene scaricato in formato JSON, e le cifre spese espresse in origine come numero intero (è stata rimossa la parte decimale, moltiplicando per 100), vengono riportate a numero decimale;
  • il file così trasformato viene salvato in JSON e CSV.

Alla versione originale dello script volevo aggiungere la possibilità di rimuovere quei record in cui le colonne con i valori numerici sono non valorizzate (sono “null”). E allora mi è stato suggerito di usare csvgrep, che può filtrare le righe di una tabella a partire da un’espressione regolare ed è stata aggiunta la riga:

Lo script viene eseguito su un server del mio Ente, e l’output è accessibile dall’esterno pubblicamente in http.

Essendo i dati di “soldipubblici” aggiornati settimanalmente, nasceva infine l’esigenza di doverne automatizzare il download senza la necessità di un intervento umano. Così, sempre su indicazioni apprese nello scambio in mailing list, ho modificato il file /etc/crontab (che negli ambienti Linux consente di impostare delle operazioni da eseguire in modo pianificato) aggiungendo:

La stringa “0 4 */7 * *” corrisponde a “ogni 7 giorni alle 4 di mattina”.

Verificato che il tutto funzionasse correttamente e ottenuti i link statici dei file creati dallo script, ho provveduto a caricarli in un dataset sul portale ckan degli Open Data della Città Metropolitana di Napoli.

È nato così il primo caso d’uso specifico dello script SpesaCron, dove grazie all’estrazione di due file csv e json dai dati di soldipubblici.gov.it è stato possibile pubblicare un dataset contenente tutte le voci di spesa di una Pubblica Amministrazione, automaticamente alimentato dallo stesso sito e con frequenza di aggiornamento settimanale.

ODSWinter17


La comunità di Open Data Sicilia ha tenuto lo scorso 30 Dicembre il suo quarto raduno invernale a Patti, presso il Caffè Galante (qui una fotogallery).

Il raduno invernale di Open Data Sicilia è detto lo Schiticchio perché l’abitudine di vedersi in questo periodo dell’anno nacque dal desiderio degli appartenenti alla comunità di incontrarsi e di passare piacevolmente una giornata intorno ad una tavola imbandita (accadde per la prima volta a Resuttano, quindi a Pedara, poi a Castelbuono e stavolta a Patti). Da lì venne fuori poi l’idea, visto che ci si incontrava, di approfittare della circostanza per dedicare alcune ore della mattinata ad approfondimenti tematici, aggiornamenti e formazione prima di ritrovarsi seduti intorno ad un tavolo.

Anche il più articolato ed impegnativo raduno estivo che si svolge in più giorni, è frutto, in fondo, dello Schiticchio invernale e del desiderio di incidere significativamente sulla diffusione e l’uso degli open data nella nostra regione e nel nostro Paese (il primo si svolse a Palermo, il successivo a Messina e l’ultimo, l’estate scorsa, a Caltanissetta in forma congiunta con la comunità nazionale di Spaghetti Open Data).

Open Data Sicilia non è nuova a Patti; già nello scorso mese di Marzo aveva donato alla città l’applicazione Albo Pop Patti e presso il Caffè Galante, nel Luglio del 2015, aveva pure contribuito a realizzare il primo evento regionale sugli open data con l’apporto significativo di alcuni elementi della nostra comunità; la prima Summer School siciliana sugli open data, organizzata in quella circostanza da Lo Stretto Digitale, si tenne lì per tre giorni ed ebbe, come già detto, l’apporto significativo di alcuni dei nostri elementi tra gli organizzatori, i relatori e i formatori. E ancora prima, nell’Agosto 2013, fu proprio da una chiacchierata avvenuta a Patti tra due dei nostri che nacque l’idea di provare a dar vita ad un gruppo Facebook da cui poi prese vita la comunità di Open Data Sicilia.

I temi di quest’anno affrontati durante la mattinata hanno riguardato la disponibilità di strumenti digitali open per essere tempestivamente allertati dalla Protezione Civile in caso di incombenti pericoli, conoscere la reale disponibilità e puntualità dei trasporti pubblici urbani anche in realtà non necessariamente metropolitane, consentire ai cittadini di esercitare quel necessario e funzionale controllo dal basso sui nostri politici e sulle nostre amministrazioni per capire quanto e come, bene o male, sia stata in loro riposta la nostra fiducia o siano spese le nostre risorse.

In dettaglio, qui di seguito, gli argomenti trattati durante la mattinata

G. Pirrotta, A. Borruso – La “datificazione” degli alert della protezione civile regionale: un prototipo; slide | slide

G. La Mensa, G. Pirrotta, A. Borruso – Cosa è e come funziona SCATbot, il bot Telegram per avere informazioni in tempo reale sui bus di Caltanissetta; slide

G. Ragusa, G. Pirrotta – FOIAPop: il punto su uno strumento che sta diventando realmente popolare; slide

G. Pirrotta, D. Taibi – Un’ontologia dell’Assemblea Regionale Siciliana: il web semantico a supporto del civic hacking; slide

Open Data Sicilia: riflessioni e obiettivi per il 2018 (e oltre).


ODSWinter17

FoiaPop.it…e adesso…chiediamo(li) tutti

Succede tutto in 6 mesi, da inizio Gennaio 2017.
Ci eravamo appena lasciati, rinforzati nell’entusiasmo dal raduno estivo di Castelbuono.

Decidiamo (Giuseppe Ragusa e Giovanni Pirrotta) di darci presto un appuntamento “virtuale” perché avevamo l’impressione che su alcuni dati si potesse lavorare insieme per produrre qualcosa di utile, ma entrambi non avevamo in alcun modo un’idea precisa.

Avevamo solo, con modalità e con obiettivi diversi, approfondito gli stessi temi e cioè: l’Indice delle Pubbliche Amministrazioni (IPA), i dati sui contratti pubblici dell’Autorità Nazionale Anticorruzione (ANAC), il Sistema Informativo delle operazioni degli enti pubblici (SIOPE).

Partiamo:

  • Uno scambio di idee (confuse);
  • Non demordiamo perché qualcosa ci dice che siamo sulla strada giusta;
  • Dobbiamo dimenticarci di “noi” piccoli e diventare per un po’ un grande “NOI”. Dobbiamo cioè ripartire dai bisogni del cittadino. Sta lì la risposta che cerchiamo.

Abbiamo deciso di “ascoltare” il più possibile. Giorni di “ascolto” ci fanno comprendere che:

  • Il diritto di accesso civico, sia semplice che generalizzato (FOIA), è per molti cittadini uno sconosciuto;
  • Chi ne conosce l’esistenza ha difficoltà a porre domande fondate e non opponibili dalla PA. Ci sarebbe bisogno di “dati da cui partire”;
  • Gli “eventi/manifestazioni/azioni amministrative” più importanti e che destano maggiore interesse all’interno di una PA sono quelle su cui ruotano i flussi monetari e cioè i pagamenti, gli incassi, gli appalti, etc. E, guarda caso, ci sono già disponibili dei dati aperti.

Ora le idee sono molto più chiare. Ma non è che siamo davvero sulla strada giusta?

Si inizia a mettere nero su bianco e mettiamo gli “open data” a sistema. Gli open data, uno strumento chiave di volta per aprire uno scrigno impolverato e incompreso sotto gli occhi di tutti. Un approccio nuovo, diverso, creativo, in grado di far emergere un potenziale finora inesplorato, di conciliare semplicità e facilità di utilizzo, per essere alla portata di tutti e fruibile senza libretto di istruzioni.

Nasce FoiaPop.it, il portale degli accessi civici data-driven (cioè guidato dall’uso dei dati). Una guida passo-passo alla compilazione online degli accessi civici semplici e generalizzati a partire dai flussi monetari delle Pubbliche Amministrazioni, dai contratti pubblici e dagli obblighi di pubblicazione imposti dal D. Lgs 33/2013.

Gli open data che ci “guidano” sono attualmente:

Con FoiaPop non dovrai fare altro che selezionare una pubblica amministrazione, visualizzarne i pagamenti, gli incassi e/o gli appalti, esplorare il patrimonio informativo fornito dagli open data, generare il documento/richiesta di accesso civico per chiedere un dettaglio, un approfondimento, una spiegazione, o dei dati, quindi firmare e inviare la richiesta alla pubblica amministrazione, anche via email o via Posta Elettronica Certificata.

Il nostro augurio è che FoiaPop.it possa realmente contribuire a diffondere in modo capillare la conoscenza e l’esercizio del diritto di accesso civico ai dati, ai documenti e alle informazioni delle Pubbliche Amministrazioni.

Su coraggio. Si può fare! 
Chiediamo(li) tutti!

Opendatafest 2017 a Caltanissetta, il report di 3 giorni di lavori

 

 

 

 

 

 

Le comunità di Opendatasicilia e Spaghetti Open Data hanno dato vita a questo report sui lavori della 3 giorni di incontri dell’opendatafest a Caltanissetta (2-4 giugno 2017).

I materiali mostrati nelle giornate sono disponibili su http://opendatafest.it 

Abbiamo pubblicato le slide  delle presentazioni mostrate al raduno direttamente nel sito opendatafest.it, all’interno del programma: dopo i titoli degli interventi e delle sessioni c’è una voce “| SLIDE” che permette di visualizzare i materiali. 

In questo post elenchiamo alcuni dei momenti del raduno e delle presentazioni (fai riferimento al programma per un quadro completo).

Venerdì mattina

Dibattito di inizio dei lavori

Chi: Alberto Cottica, Matteo Brunati, Andrea Borruso, Cristiano Longo

Di cosa si è discusso, in ordine sparso:

  • Curarsi delle comunità costa, è necessario rendersene conto
  • Scelta di strumenti che permettano di dare un lascito, serve dare continuità alle comunità
  • Fase storica sugli Open Data: forse stiamo vivendo la fase adolescenziale, siamo stanchi
  • Serve collegarsi alle altre comunità del mondo Openness
  • Trovare modi per far convogliare i vari temi crosscomunità, pur mantenendo le varie identità, forse è utile una Woodstock dell’Openness, sta nascendo un evento a cui ci hanno chiesto un parere e un contributo, che intende provarci nel 2018
  • Comunità locali: necessitano di credibilità per incidere nel territorio, serve dare il buon esempio
  • Serve documentare tutto, necessari incontri fisici e online
  • Non siamo da soli, non dobbiamo chiuderci in noi stessi, serve aiutare il ricambio e allargare includendo
  • Per coinvolgere altri è necessario uscire dal linguaggio da iniziati
  • La tecnologia è funzionale, un mezzo, da soli si fa poco: necessario coltivare i rapporti umani per creare cose nuove
  • Quando un cittadino inizia a produrre valore, mette in discussione lo status quo
  • Bisogna decidere come partecipare alle azioni di governo, capire come relazionarsi all’EU, bisogna rompere le scatole in modo costruttivo, come comunità
  • Il civic hacker è troppo solo, devi avere persone intorno per restare motivato
  • Serve decidere come comportarsi con le altre comunità
  • Lancio del progetto civichacking.it

Dettagli sull’evento delle comunità dell’Openness in costruzione 2018

A quanto pare l’esigenza di connettere comunità che lavorano e sono appassionate di temi affini, non è solo una sensazione di pochi: parliamo di tutte quelle comunità che in qualche forma supportano e discutono di libertà digitali (Openness in senso lato, Open Source, Free Software, Open Content e beni comuni digitali).

Assieme a Roberto Guido (presidente di Italian Linux Society – ILS), che ci ha cercato qualche settimana prima del raduno, abbiamo iniziato a ragionare su un evento unico, che riunisca molte comunità nello stesso luogo e negli stessi giorni, mantenendo ognuna separata nella gestione dei propri eventi. Per iniziare può bastare essere tutti nello stesso luogo, simultaneamente: è un inizio.

Alcuni appunti condivisi: https://etherpad.net/p/proposta-os-conf-ita

Civic hacking: comunità informali, prototipi e Open Data: il libro

Il libro nasce dall’esigenza di capire cos’è il civic hacking concretamente nel contesto italiano, uscendo dal gergo per iniziati. A partire dalle esperienze reali dei civic hacker, che collaborano per trovare soluzioni creative a sfide sociali concrete, allarghiamo lo sguardo per analizzare il rapporto tra Open Data, prototipi, comunità informali e modi di sfruttare le zone grigie (quelle opportunità inaspettate che si creano a volte).

Interessa ovviamente i civic hacker. Interessa anche i maker, gli appassionati di openness e chiunque senta l’esigenza di mettere le mani “in pasta”.  

Raccontiamo anche le nostre esperienze dirette all’interno della comunità di Spaghetti Open Data per mostrare il potenziale e la fatica di quello che si può fare.

Persone, storie, Open Data, prototipi: tutto questo per noi è civic hacking. Non solo tecnologia, ma un modo per scardinare vecchie abitudini, un modo per riprendersi il proprio ruolo di cittadini, un modo per risolvere problemi.

Fino al 31/7 h.22 CEST, puoi inviare un tuo contributo. Per dettagli fai riferimento al sito http://civichacking.it/#contributi.

Dal primo agosto partirà una campagna di crowdfunding: se ti interessa, lascia pure la tua email qui http://eepurl.com/cQ15nX.

L’annuncio del portale regionale siciliano sui dati aperti

A sorpresa è venuto a seguire i lavori della mattina Enzo Lo Piccolo, webmaster della Regione Siciliana. Ha chiesto la parola per pochi minuti e ha fatto un annuncio: nelle prossime settimane (tra fine giugno e inizio luglio) verrà lanciato il portale regionale siciliano sui dati aperti. Sarà basato su CKAN e DCAT-AP_IT compliant.

Ha chiesto alla comunità – a lancio effettuato – di “dargli una mano”, sia nelle critica che nella proposta e ha dato comunicazione di un indirizzo email dedicato opendata@regione.sicilia.it. E noi gli abbiamo chiesto di iscriversi alle nostre mailing list.

È stato un momento molto informale e concreto, che ci fa essere ottimisti. Per la Sicilia è sicuramente una bella notizia ed è stato un piacere che #ODFest17 sia stato “stimolante”.

Le presentazioni del venerdì pomeriggio

Proposte di elaborazione di Dati Aperti dagli studenti di Informatica dell’Università di Palermo

Tre studenti del corso di laurea in Informatica dell’Università degli studi di Palermo, hanno presentato i progetti realizzati per l’esame della materia “Tecniche per la gestione degli Open Data”, curato da Davide Taibi del CNR di Palermo (http://offweb.unipa.it/offweb/public/corso/dettaglioInsegnamento.seam;jsessionid=FB17C3274CB9C25A07D58E8A68988D26?oidCurriculum=17137&oidInsegnamento=111202&cid=123461). I progetti che gli studenti devono realizzare per superare l’esame della materia hanno tre caratteristiche fondamentali: a) i dati da elaborare devono provenire da diverse fonti (anche generati da sensori) ed essere in diversi formati; b) i dati acquisiti devono essere elaborati mediante processi di pulizia e armonizzazione delle strutture dati; c) i dati elaborati devono essere resi disponibili all’esterno mediante API e in un formato aperto con un livello pari a 5, possono essere riusate ontologie esistenti o è possibile creare nuove ontologie per modellare il dominio di conoscenza specifico. Infine, i dati prodotti devono essere alla base della realizzazione di applicazioni come: bot telegram, web application, o applicazioni per dispositivi mobili.

Nello specifico gli studenti che hanno partecipato all’OpenDataFest17 hanno presentato:    

  • Un portale che aggrega gli eventi culturali che si svolgono nella città di Palermo di Vincenzo Cimino, https://raw.githubusercontent.com/VickPix/aggregatore-eventi/master/slides/Aggregatore_eventi_Vincenzo_Cimino.pdf. I dati vengono acquisiti mediante scraping di alcuni blog palermitani, e dal portale dell’Università di Palermo; e vengono armonizzati in una struttura dati comune che viene utilizzata per alimentare un portale in cui vengono visualizzati gli eventi mediante una interfaccia semplice, facile e comoda. Per modellare gli eventi e le loro caratteristiche è stato utilizzato schema.org. L’estrazione dei dati relativi agli eventi in formato JSON-LD è stata implementata attraverso API. L’applicazione è disponibile qui (http://portale-eventi.firebaseapp.com).
  • Una stazione meteo autocostruita e la relativa piattaforma di gestione dei dati in rete di Riccardo La Grassa https://github.com/pulsar2468/Owd/blob/master/OpenDay2017.pdf. Sono state fornite indicazioni per la costruzione della stazione meteo. Molto interessante è stata la descrizione relativa alla costruzione dell’anemometro, realizzato a basso costo con materiali riciclati. I dati raccolti dalla stazione vengono elaborati da un server centrale alle quali le stazioni meteo possono registrarsi attraverso un TOKEN. Il server centrale fornisce le visualizzazioni dei dati acquisiti e consente l’esportazione dei dati in formato aperto a cinque stelle. In questo caso è stata riutilizzata una ontologia specifica per la modellazione dei dati provenienti dai sensori.  
  • Una piattaforma di visualizzazione per infografiche relative a dati georeferenziati di Tommaso NIcosia (http://opendatafest.it/presentazioni/TommasoNicosia-OpenData-framework-sviluppo.pdf). In questa piattaforma i dati provenienti dalle segnalazioni della polizia municipale del comune di Palermo, e i dati provenienti da Waze relativi al traffico cittadino vengono aggregati e visualizzati su mappa. Un prototipo è disponibile qui (http://neuron4web.palermo.enea.it/opendata/_trafficendpoint). Uno SPARQL endpoint si occupa di gestire le query che vengono effettuate sui dati rappresentati in RDF. I dati forniti possono avere diversi settori di applicazione. Ad esempio tali dati possono guidare le scelte dei percorsi per raggiungere punti critici della città come ad esempio i presidi ospedalieri. L’unione di queste informazioni con, ad esempio, i dati relativi alle file dei pronto soccorso della città potrebbero supportare (nell’eventualità in cui non ci siano casi che necessitano cure immediate) la scelta del pronto soccorso in maniera più efficiente in termini di pazienti in attesa, traffico nelle strade ed eventi particolari come manifestazioni e lavori in corso.    

Non fidarsi più dell’ennesima agenda: servono uno o più progetti di civic hacking [Forum OGP]

Durante il dibattito mattutino sono emersi alcuni elementi sparsi legati soprattutto al ruolo di realtà come SOD o gruppi locali come Opendata Sicilia rispetto a forum di questo tipo, ancor di più in merito al tipo di intervento e interessi da mettere sul piatto.

Durante la sessione pomeridiana siamo andati maggiormente nel dettaglio di un processo complesso, costoso e con un ritorno difficile da valutare per la società civile. Lo scopo è stato quello di condividere un vissuto di un anno, focalizzato a spiegare dove siamo ora, specie in merito alle proposte/domande presentate al ministro Madia durante l’ultimo evento in plenaria dell’8 maggio scorso.

Una delle azioni nate nei giorni del raduno e condivise con i presenti ha poi generato questa richiesta formale alla squadra OGP Italy, che abbiamo condiviso in questo thread:

https://groups.google.com/d/msg/spaghettiopendata/uslQ2CTqqiM/M1rM7uaIAQAJ

Abbiamo scelto di dare maggior visibilità a questa proposta pubblicandola anche nei rispettivi luoghi digitali:

  1. http://www.spaghettiopendata.org/blog/matteo-brunati/open-government-partnership-andare-oltre-lagenda
  2. http://blog.openpolis.it/2017/06/13/open-government-partnership-andare-oltre-lagenda/15616
  3. http://blog.ondata.it/open-government-partnership-andare-oltre-lagenda/
  4. https://it.okfn.org/2017/06/13/open-government-partnership-andare-oltre-lagenda/

Incoraggiare la partecipazione attiva dei giovani alla vita democratica con YouthMetre

Caterina Impastato ha presentato YouthMetre, iniziativa che nasce per incoraggiare la partecipazione attiva dei giovani alla vita democratica.  Ecco le slide (Prezi) dell’intervento: uno degli elementi più interessanti è la piattaforma e i dati che aggrega, uno degli argomenti che è stato oggetto di alcune domande da parte dei presenti.

Il progetto Ricostruzione Trasparente

Alessio Cimarelli, rappresentante dell’associazione onData, ha presentato e discusso il progetto Ricostruzione Trasparente. Ecco le slide dell’intervento.

Civic Hackathon[s]

Creazione del GTFS di Caltanissetta

GTFS

Nelle prime ore di lavoro il gruppo di lavoro ha “sbattuto” con un ostacolo inatteso: i dati sulle rotte e sulle fermate erano incompleti o errati. Per fortuna, durante la giornata, è venuta a trovarci la Titolare dell’Azienda che gestisce i trasporti locali su gomma (SCAT) e siamo riusciti a produrre dei dati corretti sulla linea 3 (uno speciale grazie a Cesare Gerbino che è stato come sempre molto disponibile e puntuale).

Compresa l’impossibilità di avere delle info in giornata sui dati di base, ci siamo messi come obiettivo quello di costruire una procedura che consentisse di produrre un GTFS a partire dai dati forniti della SCAT e di verficarne la validità.

Davide Galletti ha creato uno script python, che a partire dalle info sulle fermate, e dalla timetable fornita da SCAT (che è abbastanza generica), produce i file secondo standard GTFS su rotte, corse e orari (routes.txt, trips.txt e stop_times.txt).

Abbiamo testato lo script con un set completo di dati (i file .txt presenti qui) usando il FeedValidator “ufficiale” e il file GTFS è risultato validato (con diversi warning che indicano la necessità di fare un altro check sui dati di base).

In conclusione:

  • Sarà necessario avere i dati geografici di base corretti e completi per tutte le linee. Giuseppe La Mensa, insieme al personale di SCAT, sarà in prima linea a occuparsene;
  • Con il set di dati completo, faremo delle modifiche e ovviamente dei test sullo script di creazione del file GTFS;
  • Documenteremo il tutto in modo da rendere autonoma la SCAT nella produzione del file GTFS e per potere replicare il processo anche in altri piccoli comuni.

GTFS + LOD

A valle del lavoro sul GTFS, è stato fatto un esperimento (Francesco Marchitelli, featuring Marco Brandizi) aggregando i dati del file GTFS di Lecce con dati provenienti dalla Linked Open Data cloud, per mostrare alcuni dei vantaggi nell’usare i Linked Data. Dopo aver convertito il file GTFS in RDF, sono stati inseriti gli eventi presenti a Lecce e caricato tutto quanto in un triple store. A questo punto è stata fatta una query di esempio che mostra i dettagli di un concerto organizzato al castello, con le informazioni correlate delle fermate dei bus che si trovano nelle vicinanze.

Il materiale si trova in questa cartella.

Un’analisi di rete dei finanziamenti europei alla ricerca

La sessione di Alberto era tosta, specie per quelli che non hanno partecipato al lavoro degli anni precedenti: Alberto ha raccontato i dettagli e la storia di questa proposta nella descrizione di questa sessione.

Purtroppo non è riuscita ad essere presente Baya Remaoun (andata via durante il pomeriggio del venerdì): alcune delle domande emerse sui dati CORDIS avrebbero avuto una risposta veloce, probabilmente.

Infatti una delle sfide per chi curiosa in dati che non conosce è riuscire a comprenderli con facilità.

Sono domande che porremo a Baya e alla squadra che gestisce la pubblicazione dei dati CORDIS nelle prossime settimane.

Altre domande hanno trovato risposta però: i risultati e la documentazione relativa al lavoro fatto si trovano in questa cartella del repo. C’è anche la presentazione (in formato Keynote) mostrata da Alberto e le immagini correlate (cartella).

Realizzare un elenco machine-readable di Albi POP

Nei giorni precedenti avevamo deciso di unificare i nostri hackathon entrambi relativi ad Albo POP, riconoscendo come la creazione di un elenco processabile dalle macchine di albi POP fosse un passo importante per molteplici attività, non ultima quella di creare aggregatori di albi. Per questo motivo, con l’aiuto e l’esperienza di Francesca Gleria abbiamo deciso di iniziare definendo un formato per la rappresentazione di albi POP.

Siamo partiti dal vocabolario del web semantico DCAT, raccomandazione W3C per la rappresentazione di dataset. L’albo POP è infatti null’altro che una rappresentazione, in formato RSS, del dataset degli avvisi di una pubblica amministrazione.

Abbiamo esaminato quindi la specializzazione di DCAT realizzata per le pubbliche amministrazioni italiane dcat_ap_it e la abbiamo applicata al nostro caso particolare. La peculiarità di albo POP è che il feed RSS viene generato a partire da una pagina web e il detentore dei dati (la pubblica amministrazione titolare dell’albo) non ha alcuna relazione con chi realizza e tiene su il servizio di albo pop. Inoltre, abbiamo tenuto in considerazione le specifiche RSS per albo pop.

Il lavoro ha generato un tutorial per pubblicare in DCAT_ap_it un elenco di albi pop, (che ci ripromettiamo di completare nei prossimi giorni.

Le informazioni originali sui dataset presenti nel catalogo in formato DCAT sono comunque rappresentabili in prima battuta con una semplice tabella. Abbiamo quindi strutturato opportunamente un Google Spreadsheet condiviso affinché fosse la base di partenza per la generazione automatica del file di catalogo, ma anche la sorgente dati di una visualizzazione web nello stile di Petrusino. L’idea è di alimentare il foglio mediante un form on-line e collegare ad esso uno script che lo traduca nel formato DCAT e una visualizzazione web che permetta di navigarlo.

FormAzione

Vocabolari, metadati: uno sguardo nel dettaglio

Al posto di una presentazione vera e propria c’è stata una discussione, guidata da queste slide.

Un’introduzione a Elasticsearch

Alessio Cimarelli ha tenuto una lezione introduttiva al database e motore di ricerca Elasticsearch, discutendone caratteristiche e potenzialità a partire dai dati live del progetto Ricostruzione Trasparente. Ecco le slide.

Varie

La proposta di Massimo Zotti: tradurre i videotutorial del progetto Copernicus

https://www.youtube.com/watch?v=KWeS1-TDy-0

Ringraziamenti e scuse

La vita dell’OpenDataFest17 è stata semplice e comoda. Un sentito grazie a:

  • Giuseppe La Mensa che ha coordinato tutto il prima, durante e dopo della logistica e i contatti con il sistema di accoglienza locali;
  • Erika Marconato che ha creato l’apprezzato communication kit (usato poi per magliette, banner, sito, social, ecc.. ), gestito la comunicazione su #ODFest17, raccolto le donazioni per le magliette, partecipato al gruppo di lavoro per la definizione di queste tre giornate;
  • Matteo Brunati che ha dato forma a questo raduno con diverse idee e spunti stimolanti, creato il wiki per il raduno, editato il sito e per essere stato Matteo Brunati;
  • Andrea Borruso che mostra a tutti noi come essere delle persone migliori;
  • Il Comune di Caltanissetta che, grazie alla sensibilità verso i temi del digitale innovativo dell’amministrazione Ruvolo, ha contribuito alle spese organizzative dell’evento.

Chiediamo scusa ad Alessandro Capezzuoli, per non essere riusciti a tenere al meglio i tempi del venerdì pomeriggio e non avere avuto l’opportunità di ascoltare la sua relazione dal titolo Professioni e orientamento: dagli open data al mercato del lavoro.

STORIFY

Disponibile uno storify ( a cura di Erika Marconato) che può dare un’idea di quello che abbiamo combinato: https://storify.com/ErikaMarconato/opendatafest2017

Collezioniamo tutorial per la condivisione della conoscenza

La serie televisiva di “Sanford & son” del secolo scorso è stata un ispirazione per l’attività di collezionamento di risorse, che sto per esporre.

Cercare risorse o informazioni sul web per imparare a fare qualcosa di nuovo, e trovarle, non basta, se poi rimangono nel caos del “Google search”. Come faccio a ritrovarle di nuovo se le ricerco? Devo ritornare nel Google search e non ricordo a quale pagina mi vengono presentate. Nel frattempo perdo tempo (sfogliare le pagine di risposte che mi fornisce Google).

Petrusino, da un paio di anni, è un catalogo online che elenca mappe e infografiche sulla Sicilia, … ora è il tempo di catalogare i link dei tutorial creati da qualcuno che ha investito ore per scrivere (e condividere) come si costruisce qualcosa che ha attinenza con i dati ed la cultura digitale.

Tutorialteca

I tutorial oggi rappresentano una preziosissima fonte di conoscenza condivisa, formazione informale. Mi è capitato personalmente di acquisire competenze digitali leggendo tutorial di altre persone e quindi ho capito che è importante valorizzarli al meglio. Da questa consapevolezza nasce un idea semplice: collezionare i tutorial che veicolano la cultura digitale e sui dati. Creare una sorta di “tutorialteca”.

Petrusino ha fatto da apripista, con la sua interfaccia pulita, semplice e con un efficiente motore di ricerca interno delle risorse catalogate. Ormai è un hub di conoscenza tematica utilizzato sia da pubbliche amministrazioni che da cittadini e professionisti, e le risorse censite (praticamente dei link) non sono così facilmente individuabili dall’ormai epico Google search. Fate prove cercando su Petrusino e su Google!

ACCUSSI’

Con Andrea Borruso ne parlammo tempo fa di creare un catalogo dei tutorial. Da qualche giorno — insieme a Giuseppe Ragusa — ci siamo messi all’opera per riusare l’interfaccia grafica di Petrusino. Abbiamo clonato il codice su Github per un nuovo progetto al quale abbiamo dato il nome di Accussì. In siciliano “Accussì” significa: “così, in questo modo” e gli autori dei tutorial in fondo fanno questo: ci indicano un po’ come fare le cose.

Oggi c’è la disponibilità pubblica di questo catalogo interrogabile su parole chiave, su autore e su tag. Abbiamo previsto una pagina “proponi” al fine di raccogliere facilmente quanto più tutorial possibili. Chiunque abbia costruito un tutorial sull’uso dei dati, su come si fa una mappa, un infografica, una trasformazione di file in formati diversi (da pdf a csv per es.), e su cultura digitale in generale, può censirlo in questa pagina, arricchendo il catalogo, che diventa, così, un patrimonio di conoscenza comune.

database su GoogleDrive che alimenta Accussì

Come è fatto?

Gli strumenti principali usati per realizzare il catalogo Accussì sono 4:

  • Simile Exhibit, per realizzare il cuore di Accussì, ovvero l’interfaccia di navigazione del catalogo;
  • Twitter Boostrap, per dare un po’ di stile alle pagine pubblicate;
  • GoogleDrive Sheet, per raccogliere e distribuire i dati che fanno da database sorgente;
  • GitHub Pages, per l’hosting dei file che costituiscono Accussì.

Il Codice

Il codice di Accussì, che si può clonare e adattare ai vari scopi, è disponibile in questo repository GitHub: https://github.com/SiciliaHub/accussi/.

Un nuovo servizio  di opendatasicilia

accussi.opendatasicilia.it lo trovate come nuovo servizio all’interno di “Cose nostre” di opendatasicilia.it, assieme alle altre cose già realizzate.

A noi piace fare queste cose, e speriamo che la nuova “tutorialteca” sia di ampia utilità.

Lunga vita a Sanford & son, ai costruttori di tutorial e a opendatasicilia.


immagini

  • la foto di Sanford & son è rilasciata con lic CCO
  • l’immagine Tutorial di Nick Youngson è rilasciata con lic. CC BY SA 3.0
  • le altre immagini sono screenshoot degli strumenti usati per costruire Accussì