HTML

View Péter Király's profile on LinkedIn

20 éves a MEK, 10 éves az EPA Én is
MEK önkéntes
vagyok

20 éves a MEK
10 éves az EPA

kirunews

Király Péter, keresés, Lucene, Solr, Java, Perl, PHP, OAI-PMH, webfejlesztés, digitális könyvtár, MARC, FRBR, RDA, Drupal, EAD, EAC, Europeana, eXtensibleCatalog.org, MEK, és sok minden más.

Friss topikok

Linkblog

LITA National Forum 2010, Atlanta

2010.10.10. 17:33 kirunews

Jó szerencsémnek köszönhetően részt vehettem a 13. LITA National Forumon Atlantában. A LITA a Library and Information Technology Association rövidítése és az Amerikai Könyvtárosok Egyesületének az informatikai szekcióját jelöli. A konferenciára még januárban lehetett jelentkezni előadónak, majd egy elég hosszú értékelési fázis végén, április végén derült ki, hogy elfogadták az előadásjavaslatomat. A konferencia három és fél napos volt, ebből az első nap egy elő-konferencia, ahol egy-egy választható téma körül előadás és műhelymunka folyt. Én a könyvtári IT szolgáltatások virtualizációjáról szóló műhelyen vettem részt, ahol megalkottuk a Tim Berners Lee könyvtár infrastruktúráját (az épület szerkezetétől kezdve az alkalmazásokig). A konferencia szervezési elve az volt, hogy párhuzamosan hat előadás futott, de egy nap maximum öt előadást lehetett meghallgatni. Háromféle előadás volt: minden napra jutott egy nagy főelőadás ("keynote speech" - ha valaki tud jó fordítást, kérem jelezze, nekem most ez jött össze), ezen kívül 70 és 30 perces előadások voltak. Az előadások között hosszú szüneteket tartottak. Mindennek az eredmény, hogy a hallgatóság ideje nagy részében nem elsősorban az előadásokat hallgatta, hanem egymással beszélgetett, vitatkozott.

A konferencia vezető témái az (informatikai) felhő és a társadalmi hálózat voltak (The cloud and the crowd). Úgy tűnik, hogy a felhő már egészen kis könyvtárak esetében is nagyon fontos, és nemcsak, hogy megfontolandó hanem bizonyított eszköz. Az egyik előadáson egy idahoi könyvtári hálózat esettanulmányában egy 300 fős, isten háta mögötti Sziklás-hegységbeli település könyvtárát említette, amit olyan siker tudtak bekapcsolni az OCLC egyik új, még béta állapotú, "felhőre épült" hálózati szolgáltatásába, hogy a könyvtár szakkönyvtári minősítést kaphatott, és a település polgármestere az új szolgáltatások segítségével kaphatta meg a PhD fokozatát. (Én nem tudtam, de Idaho állam maga is olyannyira periférikus, hogy ez előadó az első dián egy USA térképen külön megjelölte, hogy merre is fekszik Idaho, illetve a vele gyakran összekevert Utah és Ohio).

A nyitó előadás a Wikipédiáról szólt, de erről a saját előadásomra készülvén lemaradtam. Többek számára a konferencia legjobb előadása volt, de sajnos nem maradt róla sem videó, sem írásos anyag. Remélem Amy Bruckman a későbbiekben fogja publikálni.

Tabatha Farney a weblapokra eső kattintások elemzésével foglalkozott - vagyis hova kattintanak a felhasználók egy adott oldalon. Az előadásában 3 kattintás elemző programot ismertetett (Google Analytics, ClickHeat, crazyeggs), de megemlítette, hogy ezen kívül még vizsgáltak egy sor másikat is, melyek nem fértek be a 30 percbe.Az elemzés konkrét eredményeket hozott, a könyvtár honlapját a néha meglepő, néha csak a könyvtári vezetés számára meglepő eredmények (alig voltak kíváncsiak a könyvtár saját működésével kapcsolatos főoldalra kitett linkekre) alapján áttervezték. Tabatha sajnos nem tért ki a találati oldalak klikk-elemzésére, ami engem jobban érdekelt volna, de nyitott a további párbeszédre, és mind az előadásából, mind a későbbi beszélgetések alapján látszott, hogy sokkal többet tud, mint amennyit az előadásába be tudott szuszakolni.

A napi utolsó blokkba került a saját előadásom is. Én eredetileg 30 perces előadással jelentkeztem volna, de az XC vezetői egyértelműen a 70 perces előadás mellett szavaztak, ami nagyon komoly szorongást váltott ki belőlem az utóbbi fél évben, hiszen ez volt az első eset, hogy főként anyanyelvi közönség előtt angolul beszélek, ráadásul több mint egy órát. Ennek ellenére szerencsére jól sikerült, ami főként a témának köszönhető (az eXtensible Catalog Drupal Toolkitjét mutattam be), amin tényleg sokat dolgoztunk.

A szombati kulcselőadást Roy Tennant tartotta a Felhő használatával kedveskedni a tömegnek (Using the Cloud to Please the Crowd) címmel. Roy egy tőle megszokott váratlat ötlettel kezdett. Miután néhány percet beszélt, csenget a telefonja. A főnöke hívta (pontotsabban ezt játszotta el). Az volt a kérés, hogy sürgősen össze kellene állítani egy Drupal szájtot, mert valami baj van a szerverrel. Az előadó ezután regisztrált az Amazon S3 szájton, keresett gyorsan egy Ubuntu szerver image fájlt, olyat, amiben van Drupal is, installálta a szervert, intallálta rajta a Drupalt, írt egy blogbejegyzést, és visszahívta a főnökét, hogy készen van. Az egész nem volt több mint öt perc, de lehet, hogy csak három (hozzáteszem, hogy Roy az OCLC kutatóintézetének "Senior Program Officer" alkalmazottja, ami azt jelenti, hogy tulajdonképpen nincs is efféle főnöke). Az előadás során volt még néhány meglepő lépése, például kiszámolta, hogy egy induló informatikai szolgáltatást néhány száz dolláros költséggel tökéletes szolgáltatói infrastruktúrával lehet ellátni (nyílt forráskódú irodai alkalmazások, az S3-hoz hasonló tárhelyek, ingyenes/olcsó csoportmunka és projektmenedzser alkalmazások, gerillamarketing (!) stb.).

Drupalos elfogultságom okán a délelőtt másik előadásának a Minesotai Egyetem Do it with Drupal-ját választottam. Az előadás arra fókuszált, hogy azokat megnyerje, akik korábban még nem használták a Drupalt. Arról számoltak be, hogy a könyvtári és egyetemi weboldalak különféle tartalmait hogy tették át Drupal alá, és ami korábban nem sikerült, hogyan tudták egy helyre összeszedni a különféle információkat (egyetemi naptár, terembeosztás, előadások, jelentkezések stb.)

Meglepő volt a JSTOR előadása, amiben bejelentették egy újabb bétaváltozat szolgáltatásait, illetve azt, hogy ez teljes mértékben elérhető API-kon keresztül. A következő honapokban - ha elérek odáig - mindenképpen fogok ezzel kisérletezgetni. Az volt a legfőbb meglepetés, hogy a teljes szövegű keresésben az előadó teljesen ugyanazon a vágányon haladt, mint amit korábban a Tesujiban én is szerettem volna megvalósítani (például az idézettségi indexek visszavezetése a relevancia súlyozására, tezaurusz/ontológia alapján történő keresés és mások), ráadásul azokat az eszközöket is használták, mint amit mi is használtunk (Lucene/Solr).

Szintén nagy meglepetés volt az egyik atlantai egyetem, az Emory könyvtárosainak előadása, akik a helytörténeti térképek és légifelvételek georeferált szolgáltatását ismertették. Kb. ugyanazzal a módszerrel dolgoznak, és ugyanazokat a célokat tűzték mi, mint az Arcanum.

Az aznapi utolsó előadás témája az OCLC emlegetett új béta szolgáltatása volt. Ez egy panel-előadás, ami azt jelentette, hogy ugyanazt a szolgáltatást 5 előadó, öt különféle szempontból ismertette. Az előadók egyike a készítő OCLC fejlesztője, a másik négy könyvtáros (kisebb-nagyobb egyetemek és területi könyvtári hálózatok képviselői). A szolgáltatás egyelőre lényegében egy új beszerzési és kölcsönzési modult jelent, de neve alapján ennél jóval több lesz a jövőben: Web-scale Management Service, vagyis webes nagyságrendű irányítási szolgáltatás. A lényege az, hogy miként pl. a Zoho project vagy a YouTube school, a szolgáltatás infrastruktúráját a könyvtár kiteszi a "felhőbe" - de leagalábbi a könyvtár falain kívülre. A harverrel és a szoftver karbantartásával, frissítésével neki már nem kell foglalkoznia. Amire koncentrálhat az a szoftver használata. A Tenessee Egyetem igen agresszív határidővel mindössze négy hét alatt állt át teljesen a régi rendszerükről az újra. Az előadók mind pénzügyi, mind szakmai szempontból eddig sikertörténetként írták le a szolgáltatás bevezetését.

Utolsó napon csak délelőtt voltak előadások, viszont kissé szerencsétlen időzítés miatt, az első kupac pont egybeesett azzal az idővel, ami alatt a szobákat el kellett hagyni, így mindössze néhány öt perce 'lighting talk' meghallgatására volt időm. Szerencsére a konferencia számomra legfontosabb (kulcs)előadását, Ross Singer "A kapcsolt könyvtári adatfelhő: ideje abbahagyni a gondolkodást és elkezdeni a linkelést" (The Linked Library Data Cloud: It's time to stop thinking and start linking" meg tudtam hallgatni. A "linked data" szerintem az a terület, ami a könyvtárak számára visszaadhatná a korábban az információszolgáltatás területén elfoglalt pozícióját - ugyanakkor mivel itthon kevéssé ismert, hogy miről van szó (még Tóth Máté egyébként kitünő PhD dolgozata a szemantikus web könyvtári vonatkozásairól is féllábú óriás a téma ignorálása miatt ;-) - bocs Máté, de én még idejében szóltam!), érdemes néhány mondatban kitérni rá. A linkelt adatok azt jelentik, hogy a könyvtári adatokat (elsősorban persze a katalógust, illetve az azonosító (vagy másképpen besorolási, authority) adatokat) a könyvtár a szemantikus web formátumainak megfelelően (RDF, RDFa, 3N stb.) is publikálja. Ez lehetőséget ad arra, hogy a katalógus adataihoz olyan adatokat csatoljunk, melyek a saját katalógusunkban nincsenek rögzítve, de más helyen (akár más könyvtárnál, akár teljesen más típusú adatszolgáltatónál) azonosítható módon jelen vannak. Ross a lemezek tracklistáinak példáit hozta fel. Még a legjobb könyvtári katalógusokban (pl. a Kongresszusi Könyvtárban) is ritka, hogy a számok szerzőit külön feltüntessék, ami megakadályozza, hogy azokat a számokat, melyeket sokan feldolgoztak (például klasszikus folk-, rock'n'roll- vagy Beatles-dalok) egy közös pontra mutassanak. Jelenleg nincsenek ilyen linkek, az olvasónak fogalma sincs a könyvtári katalógus alapján a dalok kontextusáról, arról hogy két Johnny B Good között mi az összefüggés. Egy másik példa: a VuFind a névazonosság alapján a szerzői ismertetőknél betölti a vonatkozó Wikipédia oldalt. Ám mi van akkor, ha a szerző neve nem egyedi? Mivel a VuFind csak karaktersorozat alapján dolgozik, nem tud két Michael Jacksont, az énekest és a harvardi filozófust megkülönböztetni. A szemantikus web technológia éppen ebben segít: minden entitásnak egyedi URL-je van, ami megosztható, így a katalógus adatai egyértelműsíthetők. A szemantikus technológia alapja az egyszerű logikai kijelentés: alany, állítmány, tárgy. Az esetek többségében nem csak az alany, hanem az állítmány is egyértelmű, vagyis nem csak az mondjuk, hogy A (könyv) címe B (karaktersorozat), hanem azt is, hogy a címet, mi (teszem azt) a Dublin Core-ban meghatározott értelemben tartjuk címnek, ami megint csak egyértelműsíti a különféle könyvtárak által tett állítások összevethetőségét. A minap a Katalistra küldte be valaki a német könyvtárak egyesített beazonosító állományának 3N formátumát, amiben kiegészítő attribútumként szerepelt a szerzők által írt művek zanzásított felsorolása, ami ahhoz pont elég, hogy két hasonló nevű szerző alapján eldöntsük, hogy valójában melyik URI azonosítja az egyiket és melyik a másikat. Gondoljuk el, hogy a könyvtárak rendelkezésére áll egy nagyon jól cizellált, meglehetősen nagy adathalmaz, amit egyéb szolgáltatók is kitűnően tudnának használni. A szemantikus technológiák, ezen belül a Linked Data ez egyik olyan eszköz, aminek a segítségével ez a potenciál újra kiaknázható.

Említettem, hogy a konferencia szervezési elvénél fogva alkalmas volt nagy beszélgetések lefolytatására. Számomra Ross Singerrel és Andrew Nagy-val különös öröm volt találkozni. Nagy (http://andrew.webitecture.org/) a VuFind alapítója. Néhány éve úgy volt, hogy a munkatársa leszek, amikor keresett maga mellé valakit a VuFind fejlesztésére, de végül a munkaadója nem akart külföldit szerződtetni. Andrew jelenleg a Serial Solutionsnél dolgozik és egyre inkább menedzser mint fejlesztő, ugyanakkor továbbra is ott van a könyvtári innováció első vonalában és bár hosszú évek óta kapcsolatban vagyunk, ez volt az első alkalom, hogy személyesen találkozhattunk. Ross (http://dilettantes.code4lib.org/blog/) a Jangle fejlesztője volt, de az utóbbi időben a Talis nevű vállalatnál (az angol OCLC) "az interoperabilitás és a nyílt szabványok bajnoka", valamint a code4lib egyik motorja. Nagy megtiszteltetés, hogy Ross ismerte a nevemet és az XC-nél folytatott tevékenységemet is. A konferencia előtt egy héttel részt vettem az OCLC által szervezett bostoni Mashathonon, ahol Roy Tennanttal és Karen Coombsszal (a "library web chick" néven ismert bloggerrel) ismerkedhettem meg, jól eset, hogy Roy Atlantában is odajött egy rövid beszélgetésre. Találkoztam a szemantikus technológiák, vagy egyéb webes témákat komolyan ismerő emberekkel, például Ken Varnummal (http://www.varnum.org/ken/), aki a michigani MLibrary egyik fejlesztője. Tőle végre megtudhattam, hogy mi a hasonlóság és különbség a Google Books és a HathiTrust között (Közbevetés: a GoogleBooks projekt a Michigani Egyetem könyvtárban indult, és mintaszerű, ahogy a projektet a weben keresztül ott nyomon lehet követni (pl. szkennelési tervek és naplók !!!) - ezzel szemben a hivatalos Google Books szájttól távol áll a bármiféle transzparencia, és akkor még finoman fogalmaztam).

A konferencia hashtegje a litaforum volt (http://twitter.com/#search?q=%23litaforum), és Adelle Frank Atlantai könyvtáros a blogjában még ki is gyűjtötte előadásonkénti bontásban a csiripeket: http://adellefrank.com/node/259 és az időközben elérhető előadások anyagit.

A Roy Tennant és Ross Singer kulcselőadásai a UStreamen érhetőek el http://www.ustream.tv/user/lita_ala/videos. A wikis előadás azonban sajnos nincs meg.

Az előadások írásos anyaga innen érhető el: http://connect.ala.org/node/113097.

1 komment

A bejegyzés trackback címe:

https://kirunews.blog.hu/api/trackback/id/tr892360846

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

FGF 2010.10.13. 09:39:58

Grat, Kiru. Ma is tanultam valamit.
süti beállítások módosítása