snik-semantifisering av bibliotekkatalogen
Embed Size (px)
DESCRIPTION
TRANSCRIPT

Hvordan bruke Linked data i et biblioteksystem
Magnus Enger skisserer en modell
BibLab 2011-11-18
libriotech.no

Eller...
Snik-semantifisering av biblioteksystemermed Koha som eksempel

Litt om meg...
Bibliotekar 1999
Master i dokumentasjonsvitenskap 2005
libriotech.no siden juni 2009

Det er lettere å starte en evolusjon enn en revolusjon (tror jeg)...

Hvor kan vi starte?

1. «Lagre som RDF»


Under arbeid...
Basert på/inspirert avhttps://github.com/bensinober/normarc2rdf
Bug 7236 - Add "Save as RDF" option to the OPAChttp://bugs.koha-community.org/bugzilla3/show_bug.cgi?id=7236

Men la oss for all del ikke lure oss selv til å tro at ren konvertering fra MARC til RDF er spesielt
interessant.
MARC er fritekst.
RDF er identifikatorer og litt tekst.
Men, det er en start...

2. SPARQL endpointfor data i relasjonsdatabasen

Det finnes løsninger som kan lage et SPARQL endpoint på toppen av en relasjonsdatabase.
Hva kan Koha tilby?
Grunnleggende bibliografiske data (MARC-felt er mappet til tabeller og kolonner)
Sirkulasjonsdata
Brukerskapte data (kommentarer, tagger, lister)

3a. Dytte RDFifiserte poster inne i en triplestore etter hvert som de lagres/oppdateres.
3b. Bygge et grensesnitt som lar oss berike de RDFifiserte postene

Identifikatorer, identifikatorer, identifikatorer!
Relasjoner (FRBR, «inspirert av» osv)
Data fra eksterne kilder
Modellering av verk, uttrykk, manifestasjoner, forfattere, emner, forlag...
Hvordan ser et sånt grensesnitt ut, mon tro?

Sannsynligvis vil vi kunne hente mye data fra andre kilder.
Bibliotekene er en liten brikke i et stort økosystem.
Mindre ressurser til katalogisering, mer til formidling!

4. Berike publikumskatalogen med semantiske data

Vise relasjoner og gjøre dem klikkbare
Egne sider for verk, uttrykk, manifestasjoner, forfattere, emner, forlag...
Lenker til eksterne ressurser
Trekke innhold inn i katalogen: bilder, video, lyd, aksjekurser...
Visualiseringer (kart, tidslinjer...)

Når vi har kommet så langt oppdager vi forhåpentligvis at MARC-dataene ikke er spesielt
nyttige lenger og kvitter oss med dem.

Demo-time!



Hva har jeg gjort?
● Super-enkel konvertering fra MARC til RDF (lokal ID, tittel, forfatter)
● Lagret konvertert post i triplestore● Koblet konvertert post til VIAF-ID for forfatter● Hentet inn data fra Dbpedia, VIAF, Open Library til
triplestore basert på IDer/lenker fra VIAF● Inkludert en JavaScript-fil i Koha, ved hjelp av
systeminnstillinger● JavaScript henter data fra triplestore til OPACen via
SPARQL-spørringer/AJAX-teknikker

Et ekstremt eksempel:
kokebøker

Hvis vi
«registrerer»
hver eneste ingrediens
i hver eneste oppskrift
i alle bibliotekets kokebøker

...kan vi svare på spørsmål av typen
«Jeg trenger en oppskrift som kombinerer lam, kikerter og tomat, men som ikke inneholder
kardemomme.»

...men det er vel sånt vi har Google til?

Arbeidskrevende, ja...
Men er det gjort én gang for en bok trenger det aldri å gjøres igjen.
Fordi vi bruker identifikatorer som er uavhengige av språk og resultatet kan deles globalt.

Formidling
møter
teknologi!

Sarah Bartlett, Senior Analyst, Talis
«Linked Data and Scholarship in the Humanities»http://www.talis.com/nodalities/pdf/nodalities_issue13.pdf (PDF, side 9)
«What place for libraries in a Linked Data world?»http://blogs.talis.com/nodalities/author/sarahbartlett
http://www.slideshare.net/SarahBartlett/what-place-for-libraries-in-a-linked-data-world

Overlay!
Filtre!
Linser!

Personlig
Lokalt
Nasjonalt
Globalt

La brukerne velge hvilke «linser» de vil bruke.

Det er nå det starter!
http://wiki.koha-community.org/wiki/Semantic_data_RFC

Og forøvrig mener jeg at MARC må dø!
Og NORMARC må dø først!
marc-must-die.info

Takk for oppmerksomheten!
http://libriotech.no/
Twitter: @libriotech