WEB 3.0 OPPURE WEB 2.1 ? Linguaggi di ontologie

Posted on 31 maggio 2007

0


Il mondo high-tech sta accelerando l’attuale maturazione del web a favore di sistemi che siano “capaci di estrarre maggiore significato dall’attuale ragnatela”, sviluppando software capaci di rispondere a richieste puntuali con l’intento di far assomigliare il web “meno a un catalogo e più a una guida ragionata” (definizioni apparse alcuni mesi fa sul New York Times).
Un’interessante definizione di Web 3.0 proviene da Derrick De Kerckhove, direttore del McLuhan Program dell’Università di Toronto, secondo il quale la rete del futuro funzionerà come il cervello umano, sfruttando le capacità di due emisferi opposti e complementari, realizzando in rete la bipolarità emisferica del nostro cervello. L’emisfero destro sarebbe il Web 2.0, sintetico e associativo, mentre il Web semantico, analitico e preciso, coinciderebbe con l’emisfero sinistro.
Più in generale l’idea di Web 3.0 è che la catalogazione operata dai network sociali sul sapere che circola in rete, diventi più consapevole e razionale dando ragione a chi in passato aveva proposto l’utopia di un web semantico, fallendo per mancanza di supporto popolare.
Su Apogeonline si trova un’interessante articolo di Bernardo Parrela che sottolinea come l’implementazione del Web 3.0 sia ancora un miraggio. Spiega che i grandi nomi del cyber business si sono già organizzati con fiduciosi start-up per posizionarsi al meglio nel prossimo mercato del web: Google vuole sfruttare al meglio l’efficacia degli algoritmi del page rank, con progetti direttamente finanziati, come il KnowItAll all’Università di Washington; Daniel Hills, esperto ricercatore sui fenomeni dell’intelligenza artificiale, ha fondato nel 2005 la Metaweb Technologies con l’intenzione di costruire un’infrastruttura migliore per il web; la Radar Networks ha investito i propri capitali in un progetto per la “prossima frontiera della ricerca, la pubblicità, la distribuzione di contenuti e il commercio”; infine il caso della Big Blue che centra la sua attenzione su sofisticati sistemi di data-mining.
Le innovazioni immesse recentemente nel web hanno fatto parlare di Web 3.0, non dichiarando a mio avviso la necessità di tempi lunghi per l’implementazione di questa nuova tecnologia che si propone di integrare l’intelligenza umana nel web sotto forma di meta dati e collegamenti fra nodi in due modi: il semantic web e l’applicazione di intelligenza a lavori che i computer non sono ancora in grado di compiere. Ad esempio i file Amici di un Amico (FOAF), permettono agli utenti di creare una descrizione del proprio profilo su cui effettuare ricerche personalizzate in formato RDF così che possano essere trovati e confrontati con utenti compatibili, oppure un’altra tecnica di web semantico è la Piggy Bank che usa pezzi di dati da siti affollati permettendone un riutilizzo in diversi modi. Il secondo tipo di evoluzione del Web 2.0 è felicemente rappresentato dal Google Image Labeler che assegna etichette alle immagini aiutando i navigatori nelle ricerche, un compito che gli attuali computer non sanno fare da soli.
C’è chi si scervella per dare definizioni calzanti per la terza generazione di tecnologie web (in mezzo a tante voci, anche Wikipedia ne propone una) e chi, con notevoli capacità balistiche derivanti dall’esperienza, ha testato i nuovi progetti nati in seno agli attori principali del cyber business dichiarandosi più propenso a un’altra definizione. In un articolo apparso sulla Tecnhology Review del MIT, Wade Roush suggerisce come sia più appropriato classificare queste nuove tecnologie come Web 2.1, dimostrando che una Internet intelligente è ancora assai lontana. L’articolo sottolinea la difficoltà di trasformazione dai dati ai meta dati, la mancanza di tool per non-programmatori o l’eccessiva artificiosità di certe applicazioni, ponendo l’accento sul fatto che tutti questi progetti portano progressi, ma non hanno ancora prodotto strumenti di uso comune.
Allo stato attuale delle cose, le tecnologie di terza generazione dovranno aspettare ancora qualche anno.

Architettura dell’informazione, volano del Web 3.0
Altri ambiti si stanno dedicando alle nuove tecnologie, mi pare interessante il caso dell’architettura che si propone come leva del Web 3.0, spostando il fuoco della progettazione dagli artefatti ai processi nel tentativo di assicurare un modello organizzativo trasversale ai diversi contesti, dove fisico e digitale sono intimamente connessi (per esempio una finestra che aggiorna in tempo reale sulle condizioni meteo). D’altra parte quante volte nel corso di una giornata passiamo da un ambiente architettonico fisico a quello digitale e viceversa?
La nuova frontiera dell’architettura dell’informazione è proprio la condivisione degli spazi digitali e fisici, all’interno di un design di terza generazione, inteso come progettazione di processi; un’architettura che si pone come possibile collante fra i vari contesti di interazione uomo-informazione. In questo senso l’architettura dell’informazione potrà essere una delle leve del design 3.0, la Internet delle cose dove tutto è connesso.

Linguaggi di ontologie
Le ontologie sono generalmente riconosciute come tool essenziale per supportare una rappresentazione comunemente accettata di un dominio di interesse. Il riconoscimento del ruolo chiave che le ontologie avranno nella Internet del futuro ha fatto sviluppare le tecnologie dei linguaggi di individuazione in modo da facilitare le descrizioni di contenuto e lo sviluppo di ontologie per il web. Esempi di questi linguaggi sono:
-RDF e RDF Schema, quest’ultimo in modo particolare è riconosciuto come linguaggio di rappresentazione di conoscenza e di ontologia, permettendo la descrizione di classi e proprietà, di restrizioni di dominio e di relazioni di sub-classi e sub-proprietà.
-DAML+OIL è un linguaggio di ontologia progettato per descrivere la struttura di un dato dominio di conoscenza. Questo linguaggio è orientato verso gli oggetti, la sua struttura di dominio è descritta in termini di classi e di proprietà
-OWL (Web Ontology Language) rappresenta un’importante passo avanti per la rielaborazione di dati adattabili alla macchina e riusabili tra le varie applicazioni. È un linguaggio per definire ontologie strutturali web-based che permettano maggiore applicazioni descrittive come la gestione di portali web, gestione di collezioni, ricerche basate sul contenuto e servizi web. I primi linguaggi usati sul web non erano stati concepiti per essere compatibili con l’architettura del World Wide Web e del Semantic Web, OWL ovvia a questo problema utilizzando URI per nominare e il linking RDF per aggiungere alcune capacità alle ontologie come una maggiore abilità nella distribuzione tra più sistemi, scalabilità per le necessità del web, compatibilità per quanto riguarda l’internazionalizzazione e accessibilità del web, apertura ed estensibilità.
Affinché le ontologie siano effettivamente utilizzate è necessario che questi sistemi dispongano di un insieme di strumenti che permettano un facile accesso alle informazioni presenti nelle ontologie, indipendentemente dal linguaggio usato per la sua costruzione e che garantiscano supporto alla manutenzione di queste informazioni attraverso operazioni di inserimento, di rimozione e di attualizzazione dei suoi concetti.

Jena è un API Java per la creazione di applicazioni per la manipolazione di ontologie. Sviluppata da Hewlett-Packard, Jena definisce un API con supporto per RDF, RDFS, DAML+OIL e OWL, che permette la lettura e la scrittura di RDF, l’immagazzinamento di ontologie in modo persistente e in memoria, così come il supporto a ricerche sulle ontologie attraverso il linguaggio RDQL.

KAON (Karlruhe Ontology and Semantic WebTool Suite) è un framework per la costruzione di applicazioni basate su ontologie. L’obiettivo principale del progetto KAON è l’efficienza nei processi di deduzione sulle ontologie. La sua API definisce un’insieme di strumenti per la creazione e la manipolazione di ontologie, che possono essere descritte utilizzando un linguaggio proprio dello strumento, come RDF e OWL.

SNOBASE (Semantic Network Ontology Base) è un framework che permette di accedere alle ontologie immagazzinate in archivi o disponibili sul web, così come creare, modificare, consultare e immagazzinare informazioni. L’obiettivo principale di questo framework è rendere disponibile alle varie applicazioni la capacità di manipolare ontologie senza la necessità che queste ultime conoscano dettagli riguardo il luogo e il modo in cui l’ontologia viene utilizzata o la modalità in cui la ricerca viene effettuata. SNOBASE offre supporto per i principali linguaggi di ontologie (RDF, RDFS, DAML+OIL e OWL).

SOFA (Simple Ontology Framework API) è un API Java per la costruzione di ontologie. Il modello utilizzato da SOFA non segue nessuno schema definito da qualsiasi linguaggio di ontologia, operando a livello di astrazione di concetti relazionati all’ontologia invece di adottare costruttori specifici di un determinato linguaggio. SOFA permette la manipolazione di ontologie descritte in RDF, RDFS, DAML+OIL e OWL, avendo anche la funzione di immagazzinamento di ontologie create con API in basi persistenti.

Luca Santoro

Messo il tag: ,
Posted in: corso di crm