디브러리

책바다 국가상호대차서비스



국내 대학도서관에서의 위키활용 ▶ 현실의 도서관2.0


국내도서관에서는 위키를 활용하여 서비스를 제공하는 도서관은 거의 없다.

주로 도서관업무, 이용자교육, 서평. 주제정보, 참고정보원 등을 활용할 수 있다.


1)    http://libterm.springnote.com  

‘사서가 만드는 사서용어사전 2.0’  위키 서비스는 국내 도서관계에서 거의 유일한 위키 서비스라고 할 수 있다.
사서에 한해 회원가입을 한 후 서비스를 이용할 수 있으며, 수정된 날짜와 수정한 사람을 보여준다.
가입에서부터 이용설명까지 세부적으로 소개하고 있어서 이용 또한 어려움이 없어 보인다.


2) http://www.wikiref.net

건국대학교 문헌정보학과 노영희 교수님에 의해서 개발되어 운영되고 있는 사이트다.   
UCC의 원리를 이용하여 여러 곳에 흩어져 있는 참고정보원들을 한 공간에 모아둔 사이트로,
현재 약 1,500개의 참고정보원들이 등록되어 있다.
또한 사서, 연구자, 교수, 학생, 일반인 등 누구나 참여하여 참고정보원을 구축, 수정하고 활용할 수 있다.
참고정보원이 필요하신 모든 분들에게 좋은 자료를 제공해 드릴 수 있을 것 같다.

Web 2.0을 활용한 미국 대학/공공도서관 사이트 ▶ 현실의 도서관2.0


Web 2.0을 활용한 미국 대학/공공도서관 사이트

[출처] http://blog.empas.com/inforan/19137820

미국 도서관계의 인기 블로그 "Library Garden"에 소개된 Web 2.0 기술․소프트웨어를 활용한 대학/공공도서관의 웹 사이트의 우량 사례

User 2.0: Innovative Library Sites (Part 1 - Academic Libraries) - Library Garden

http://librarygarden.blogspot.com/2007/02/user-20-innovative-library-sites-part-1.html

User 2.0: Innovative Library Sites (Part 2 - Public Libraries) - Library Garden

http://librarygarden.blogspot.com/2007/02/user-20-innovative-library-sites-part-2.html 


대학 도서관 웹사이트

 

부루클린 대학 (NY)

MySpace 대중적인 페이지

Morrisville 주립 대학 (NY)

MySpace와 Facebook, 뉴스와 사건 공고를 위한 blog가 있다.

Tutt 도서관, 콜로라도 대학 (CO)

도서관 뉴스를 위한 Flickr 계정, blogs 및 서평, 정부 정보를 연결 그리고 액세스할 수 있게 하는 wiki 와 전갈.

Huddersfield 도서관 (UK)의 대학

관련 책의 통합 recommender 체계, 명부를 가진 전자 자원 wiki 와 카탈로그가 있다.

얼바나 평야 (IL)에 일리노이의 대학

뉴스, 공고 및 화제를 다루는 다수 blogs가 있다. ; 또한 podcasts와 MySpace 계정.

Pennyslvania의 PennTags (PA)의 대학

PennTags 북마킹 프로젝트로 많은 대중적인 tag들이 있다.

예일 대학 도서관 (CT)

RSS는 특정한 화제를 포함하는 뉴스를 다룸; 법률, 제약, 예술등 주제가 특정한 도서관 blogs.

 


공공 도서관 웹사이트

 

앤 아버 지역 도서관 (MI)

오픈 소스 Drupal를 표를 붙이는 blogging를 사용한다, 사용자 논평, RSS피드. 위치는Google 지도에 나타난다.

Arlington Heights 기념하는 도서관

(IL)특징 "Vlogs"

아틀란틱 시티 공립 도서관 (NJ)

RSS 피드, podcasts

덴버 공립 도서관 (CO)

도서관 뉴스와 현지 사건 의 podcasts, MySpace 십대를 위한 RSS피드 제공

Goshen 공립 도서관 & 역사 동우회 (NY)

각종 화제 책 검토에 관한 blogs, 컴퓨터, 도서관 뉴스,  MySpace 페이지가 있다.

Hennepin 군 도서관 (MN)

도서관 뉴스와 십대를 위한 blogs, 사용자 검토와 함께 카탈로그화된 RSS피드 또는 코멘트, MySpace 계정이 그리고, podcasts 있다.

기념관 도서관 (MA)

도서관 운영자는 Blog를 유지하고 wiki를 통해 참고질문에 답한다.; podcasts 및 MySpace 페이지 및 온라인 공동체 달력 있다.

Mesa 군 공립 도서관 지역 (CO)

온라인 도서 클럽에게 도서관 지도자 blog, 직원 "사서의 사랑" blog 및 연결이 있다.

Salida 지역 도서관 (CO)

사용자가 체크아웃한 품목에 만기일을 추적하는 것을 허용하는 도서관 꼬마요정에 연결; 현지 디지털 기록 보관소 연결, 다운로드 가능한 오디오 책, 지도자 (주간) 신문 기사 및 직원 권고.

Stevens 군 시골 도서관 지역 (WA)

현지 역사를 포함하여 Stevens 군에 가이드를, 창조하기 위하여 디자인된 도서관 뉴스 blog 및 공중 wiki 프로젝트를 유지한다.

Westerville 공립 도서관 (OH)

특징 지도자, 청소년과 성인은 아마존에 연결로 blogs, 도서관 Flickr 및 카탈로그 품목의 MySpace , RSS 피드, podcasts 및 텔레비전 방송, 사용자 등급, 검토를 위한 B&N, 소설가 및 Syndetics 서비스한다.

Worthington 도서관 (OH)

MySpace 와 연계된 청소년 blog가 있다.

 








전자 도서관의 고민 ▶ 도서관2.0와 웃는 이야기


이 블로그를 통해 자주 드리는 말씀이지만 요즘 도서관에는 책만 있는 것이 아닙니다.  책 뿐만 아니라 각 종 멀티 미디어 자료는 물론 학술 정보 데이터 베이스 등도 있고 전자 책과 전자 저널(학술지)도 도서관에서 반드시 소장하고 있는 자료들입니다. 특히 대학 도서관에서 전자 저널은 점점 더 사용자층을 넓혀 가고 있는 자료 중의 하나이지요. 이제는 종이에 인쇄하는 일  없이 온라인으로만 출판이 되는 저널들도 많이 생겨나고 있습니다. 이용하는 사람의 입장에서는 참 편한 존재이지요. 물론 읽기 위해서 다시 인쇄하시는 분들이 많습니다만 24시간 세계 어느 곳에서나 인터넷을 통해 저널에 실린 논문을 읽을 수 있다는 점에서 큰 의미가 있습니다. 그리고 종이에 인쇄되어 최종적으로 서가에 놓이기 훨씬 전에 인터넷을 통해 논문이 소개되고 또 그 저널에 가입되어 있다면 지구 상의 누구나 쉽게 논문을 접할 수 있으니 정보의 확산과 교류라는 측면에서도 전자 저널은 큰 의미가 있지요.

그런데 이러한 최신의 전자 자료들은 그것을 이용하는 사람들은 물론이고 관리하는 도서관 사서들에게도 여러 가지 새로운 걱정 거리와 고민 거리를 던져주고 있습니다.  가장 먼저 이야기 할 수 있는 고민 거리가  바로 가격입니다.  매우 많은 수의 전자 저널은 출판사나 대형 데이터 베이스 공급 업체를 통해 일괄적으로 구입을 하게 됩니다.  그런데 이 경우 우리에게 필요한 저널만 선택할  여지가 적습니다.  판매하는 측에서 만든 몇 가지  팩캐지를 보고 그 중에서 우리에게 필요한 것을 구입하게 되는데 이러한 대형 데이터 베이스들의 가격이 상상을 초월합니다. 

그래서 조금이라도 가격을 낮추어 보려는 시도의 한 가지로도서관들끼리 일종의 연합체를 형성해서 공동으로 데이터 베이스들을 구입하는 경우가 많습니다. 일례로  Elsevier 라는 출판사에서 운영하는 Science Direct 라는 데이터 베이스가 있습니다. 자연 과학 분야에서는최고 수준의 저널들을 모아 놓고 있는데 이것을 구입하면서 저희들은 뉴욕 주립 대학 중에서도 박사 과정을 운영하고 있는 4개의 큰 대학들이 모여 공동으로 계약을 했습니다. 

5년 전에 맺어진 계약에 따라 우리 도서관에서는 매 년 75만 달러 정도의 돈을 구독료로 지불합니다. 다른 3개의 대학에서도 비슷하게 지불을 하지요. 그렇다고 저희들의 계약이Science Direct 에 있는 모든 저널을 대상으로 한 것도 아니었습니다. 그 중 일부만 포함된 팩캐지를 선택한 것이 이렇고 만일 전체 저널을 모두 선택한다면 가격은 더 올라가겠지요. 최근에 계약을 갱신하기 위해 Elsevier 측과 4 개 대학 연합 협상단이 열심히 줄다리기를 하고 있습니다. 분명 75만 달러 이상으로 가격이 올라갈텐데 걱정입니다.

그렇다고 도서관에서 Science Direct 만 구입하는 것이 아니라 그 외에도 Ebsco,  Gale, Proquest 등과 같은 여러 회사들에서 판매하는 많은 종류의 데이터 베이스를 구입하다 보니 이러한 전자 자료들을 위해 지출되는 돈이 전체 도서 구입 예산에서 큰 몫을 차지 합니다. 이용하시는 분들은 편하게 사용하시지만  그것을 위해 이만큼 많은 비용이 든다는 사실을 알고 계시는 분들은 드뭅니다. 그리고 이처럼 전자 자료들의 역할이 커지다 보니 이제는 이들 회사가 학계에서 차지하는 비중까지 커져가고있습니다.  한국에서 대학교 교수님들의 연구 업적을 평가할때 사용한다고 많이 보도된  SCI (Science Citation Index) 라는 인덱스 역시  알고 보면  Thompson 이라는 회사에서 만든 데이터 베이스 제품의 한 종류입니다.  SCI의 유효성에 대한 논의도 많이 있습니다만 결국 일개 회사에서 만든  제품이 연구 업적 평가의 표준 도구로 사용이 되고 있는거지요. 

이런 전자 저널 뿐만 아니라 기타 참고 자료들도 정말 좋은 것들이 많이 만들어지고 있는데요. 역사 과목을 담당하는 저에게는 정말 매력적인 전자 자료이 많이 있습니다.  19세기 미국에서 발매된 신문들을 모두 스캔하여 전문 검색이 가능하고 검색된 신문 기사들을 PDF 형식으로 보여주는 America's Historical Newspapers 와 같은 데이터 베이스나  17세기에서 19세기 사이에 미국 내에서 출판된 책이나 팜플렛 같은 인쇄물들을 스캔하여 원문을 그대로 제공해주는 Early American Imprint 와 같은 자료들은 역사를 공부하는 사람들이라면 너무나 유용하게 사용할 수 있는 원자료입니다.  그런데 문제는 가격이지요. 위에서 말한 이 시리즈들의 경우 10만 달러가 넘는 구입 가격에 매 년 1000 달러 가량의 유지비가 들어가니 웬만큼 돈이 많은 도서관이 아니고는 쉽게 엄두를 낼 수 없는 자료들이지요. 한국에서도 대학 도서관들이 컨소시엄이 만들어 국가 차원에서 이들 데이터 베이스들을 구입한다고 들었습니다.  

이러한 가격 문제와 함께 또 한 가지 고민은이 전자 저널들을 제대로 관리하는 일입니다. 데이터 베이스 회사들에서 내 놓는 팩캐지 중에는 우리가 이미 가지고 있는 저널도 포함이되어 있고 출판사와 데이터 베이스 회사와의 계약에 따라 한 가지 종류의 저널이 몇 가지 데이터 베이스를 통해 동시에 제공되는 경우도 있습니다. 그리고 한 가지 저널이라고 하더라고 출판 시기에 따라 서로 다른 데이터 베이스들을 통해 제공되는 경우도있지요. 더욱 문제를 복잡하게 하는 것은 도서관과는 별도로 출판사와 데이터 베이스 회사 사이에서 계약이 체결되고 그 계약에 따라 어제까지 제공되던 저널이 오늘은 더 이상 제공되지 않는 경우가 생기기도 한다는 것입니다. 그래서 요즘은 도서관마다 전자 자료 전문 사서를 따로 고용하여 이 문제에 대처하려 하지만 이 사람만으로 위에서 말한 것과 같은 각 종의 변동 요소를 쫒아 가며 도서관 목록에 반영하는 것은 결코 쉽지 않은 일입니다.

그리고 도서관에 알리지 않고 데이터 베이스의 인터페이스가 바뀌는 일도 자주 생깁니다. 도서관 사서들이야 그 동안 해오던 경험이 있으니 쉽게 적응한다고  하더라고 갑자기 새로운 인터페이스를 보는 이용자는 놀라고 또 불만을 털어놓습니다. 당연히 그 불만은 도서관을 향한 불만이지요. 그러다 보니 이들 온라인 전자 저널을 제대로 관리하는 일이 그리 간단치 않습니다. 위에서 말한 일 이 외에도 도서관 온라인 목록에서 전자 저널로 이어진 링크가 제대로 작동을 하는지,  학교 밖에서 접속을 할 경우 정식 이용자임을 확인하는 과정이 제대로 이루어지는 지 그리고 이용 가이드들은 제대로 업데이트 되어 있는지 등등 예전에 책 위주로 운영되던 도서관에서는 생각하지 않았던 새로운 일들이 생기고 있지요.

이러한 문제를 해결하기 위해 도서관마다 여러 가지 방법을 동원합니다. 그리고 당연한 이야기 이지만 도서관 관련 업체에서도 이러한 문제들을 해결하기 위한 새로운 소프트웨어들을 만들어내서 도서관에 판매하고 있지요. 몇 달 전 저희 도서관에서 바로 이런 목적으로 구입한 소프트웨어가 생각만큼 기능을 발휘하지 못 하여 어제부터 컨설턴트를 불러다 놓고 종합적인 진단 작업을 하고 있습니다. 제가 맡고 있는 상호 대차 파트 역시 이것과 많은 연관이 있어 오늘 오후 내내 이 컨설턴트와 이야기를 나누었습니다.

제가 느끼는 문제점은 이런 겁니다. 도서관을 이용하는 사람들이 각 종의 학술 정보 데이터 베이스를 이용해서 필요한 자료를 검색했는데 만일 그 자료의 전문(Full Text)이 다른 데이터 베이스를 통해 온라인으로 제공되는 경우 그것을 이용자가 쉽게 접근할 수 있도록 시스템이 만들어져 있어야 하는데 현재 시스템은 이용자들을 더 혼란스럽게 만들고 있다는 것이지요. 그래서 이용자들은 우리 도서관에 그 자료가 없다고 생각하고 상호 대차 부서에 신청해서 다른 도서관으로부터 구해 달라고 하지요. 그런데  "제가 자랑스럽게 훈련시킨 우리 학생 조교"^^ 및 도서관 직원들이 이런 부분들을 잘 찾아 냅니다.그리고 한 발 더 나아가 온라인으로 제공되고 있지만 도서관에서 미처 목록에 반영하지 못한 저널까지도  찾아내어 이용자들에게 논문을 제공하고 있습니다. 자료가 필요한 이용자들에게는 참 좋은 일이지요. 그래서 크리스마스가 되면 저희 사무실에는 언제나 초컬릿 상자와 카드가 넘쳐 납니다.^^

하지만 이 문제는 저희들에게까지 오기 전에 해결될 수 있는 부분입니다. 그리고 그렇게 되면 이용자들은 자료를 신청하고 저희들이 찾아서 보내줄 때까지의 몇 시간을 기다리지 않아도 바로 그 자리에서 자료를 볼 수가 있게 되는 겁니다. 그 부분에 대해 이야기를 나누고 시스템을 좀 더 쉽게 만드는 방법에 대해 이야기 했지만  결론은 '완벽한 해결책은 없다."는 것이었습니다. 도서관(혹은 도서관 컨소시엄), 데이터 베이스회사, 출판사들이 모두 관여된 이 문제에서 어느 한  쪽의 노력만으로는 완전한 해결책을 찾을 수 없다는 것이었는데. 그 와중에도 데이터 베이스들 속에서 헤메고 있는 이용자들이 계시지요. 하기야 그것 때문에 사서들의 역할이 더욱 중요해지기는 합니다만 그렇다고 사서들의 일자리를 튼튼하게 만들려고 시스템을 더 복잡하게 만들어서는 않되겠지요. 이래 저래 고민입니다.

전자 저널 이야기가 나온 김에 인터넷으로 별도의 비용 없이 접할 수 있는 Open Access Journal 싸이트를 몇 곳 소개합니다. 전세계에 있는 연구자들 사이에서 좀 더 원활한 학문 교류가 이루어지기를 바라면서 여러 학회에서는 자신들의 연구 결과를 인터넷을 통해 무료로 전세계에 공개하고 있습니다. 그리고 그러한 저널들을 모아서 소개하고 있는 싸이트들이 몇 곳 있는데 아래의 싸이트들을 둘러보시면 의외로 많은 논문 자료들을 찾으실 수 있습니다. 그리고 이 리스트에는 유럽 이나 기타 지역에서 발간되는  저널들이 많이 소개되어 있어 더욱 흥미롭습니다.


Directory of open access journals
스웨덴을 비롯한 북유럽의 학자들이 중심이 되어 2002년 부터 시작된 프로젝트로서 현재는 Lund University Libraries에서 관리를 하고 있습니다. 이 리스트에는 3000 종 이상의 저널에 대한 정보가 소개되어 있고 그 중 1022개의 저널은 전문을 무료로 보실 수 있습니다. 인문, 사회, 자연 과학을 총망라하여 17만 건 이상의 논문을 검색하실 수 있습니다.

BioMed Central - Open Access journals
이 리스트에는 이름 그대로 생물학과 의학 관련 저널 186 종이 소개되어 있습니다.

Electronic Journals Library(Elektronische Zeitschriftenbibliothek EZB)
독일의 레겐스버그 대학 도서관(Universitätsbibliothek Regensburg)과 뮌헨 기술 대학 도서관(Universitätsbibliothek der Technischen Universität München) 의 공동 작업으로 만들어진 이 리스트에는 3만 6천 종이 넘는 저널들이 등록되어 있습니다. 학문 전분야에 걸친 저널들이 소개되어 있는데 그 중  4552 종의 저널은 온라인으로만 출판이 되는 저널이라고 합니다, 그리고 16884 종의 저널을 무료로 인터넷을 통해 이용하실 수 있습니다.

AERA SIG Communication of Research :: Ejournals in Education
American Education Research Association Special Interest Group (AERA SIG)Communication of Research 에서 만든 교육학 관련 무료 전자 저널 리스트입니다.

Open J-Gate
Open J-Gate 는 인도(India)의 기업인 Informatics Ltd 의 후원으로 만들어진 리스트인데 학문 전 분야에 걸친 4393 종의 무료 저널들을 소개하고 있습니다.


*** 마지막으로 한 말씀만 드립니다. 한국의 대학 도서관이나 공공 도서관에서도 이러한 전자 자료들을 많이 제공하고 있습니다. 한 해에 천 만원이 넘는 등록금을 내고 학교에 다니시는 것을 생각하신다면 이런 비싼 전자 자료들을 많이 이용하십시오. 그래서 등록금 본전을 뽑으십시오. ^^


**** 2월 21일 추가 사항

덧글을 통해 약속드린 전자 자료 이용과 관련한 간단한 통계를 올립니다. 각 데이터 베이스 회사마다 플랫폼이 달라 저널 별로 이용 실적을 구하기는 힘들더군요. 대신 많이 사용되는 몇 몇 데이터 베이스 별로 2006년 학기 이용실적을 올려봅니다. 이 자료들은 저희들이 데이터 베이스 계약을 갱신할 때 가장 많이 참고하는 자료입니다. 그런데 실제 학생들이 많이 사용하고 있는 EBSCO Academic Search Premier 와 Science Direct 같은 자료들은 다른 방식으로 계약이 되기 때문에 이 자료에는 빠져 있습니다. 제가 판단하기에는 특히 EBSCO 와 같은 자료의 이용회수는 아래에서 가장 높게 나온 PsycInfo  보다도 훨씬 더 높을 겁니다. 참고로 제가 근무하고 있는 올바니 대학의 도서관 이용자는 학생수 17400 명에 교수 1000 명, 그리고 일반 직원 4000여명 입니다. 혹시 특정한 데이터 베이스와 관련된 자료가 궁금하신 분이 있으시면 알려주십시오. 저희 들이 구입한 데이터 베이스들의 리스트는 http://library.albany.edu/databases/search.asp 에서 보실 수 있습니다.


America History and Life-----2489 searches

Anthropological Literature-----2538 searches

Biological Science-----1211 searches

Criminal Justice periodical Index-----7,777 searches

Education Abstract-----12,940 searches

EconLit-----868 sessions, 3402 searches

Ethnic Newswatch-----4322 searches

Hispanic American Periodical Index-----2225 searches

Humanities International Index -----1472 sessions, 5838 searches

Legal Trac-----3552 searches

MAthSciNet-----10,366 searches

MLA-----18,973 searches

PsycInfo-----187,678 searches

Scifiner Scholar-----7773 searches

Sociological Abstract-----15,803 searches

Philosoper's Index-----2,406 searches

Xrefer-----4344 searches








출처 - http://cliomedia.egloos.com/1749057 Cliomedia








웹2.0, 웹3.0과 시맨틱 웹 ▶ 웹2.0 & 도서관2.0


 

1. 웹 1.0

 

웹 1.0웹 2.0이 유행하기 전의 월드 와이드 웹 상태를 일컬으며, 1994년부터 2004년까지의 기간 동안에 있던 대부분의 웹사이트가 이에 해당한다.

2006년 11월, 테크넷 서밋에서 넷플릭스의 창립자이자 최고책임자인 리드 헤스팅스는 이 웹의 구문을 다음과 같이 간단히 정리하였다:

 

"웹 1.0은 전화 접속, 평균 50K 정도의 대역이었으며, 웹 2.0은 평균 1 메가비트의 대역이며, 웹 3.0은 완전한 비디오 웹이 될만큼 속도가 나오는 10 메가비트의 대역이 될 것이다."

 

http://ko.wikipedia.org/wiki/%EC%9B%B9_1.0

 

 

 

2. 웹 2.0

 

웹 2.0(Web 2.0)은 단순한 웹사이트의 집합체를 웹 1.0으로 보고, 웹 애플리케이션을 제공하는 하나의 완전한 플랫폼으로의 발전을 웹 2.0이라고 지칭한다. 이 용어는 'O'Reilly Media'에서 2003년부터 사용하기 시작하면서 대중화 되었다.이 개념의 주창자들은 궁극적으로 여러 방향에서 웹 2.0이 데스크톱 컴퓨터의 응용 프로그램을 대체할 것으로 예견하고 있다.

http://ko.wikipedia.org/wiki/%EC%9B%B9_2.0

 

데이터의 소유자나 독점자 없이 누구나 손쉽게 데이터를 생산하고 인터넷에서 공유할 수 있도록 한 사용자 참여 중심의 인터넷 환경. 인터넷상에서 정보를 모아 보여주기만 하는 웹 1.0에 비해 웹2.0은 사용자가 직접 데이터를 다룰 수 있도록 데이터를 제공하는 플랫폼이 정보를 더 쉽게 공유하고 서비스 받을 수 있도록 만들어져 있다. 블로그(Blog), 위키피디아(Wikipedia), 딜리셔스(del.icio.us) 등이 이에 속한다.

http://100.naver.com/100.nhn?docid=824783

 

 

 

3. 웹 3.0

 

웹 3.0(Web 3.0)은 월드 와이드 웹이 앞으로 어떻게 될 것인지를 서술할 때 쓰이는 용어이다. 최근의 웹 혁명을 서술하기 위해 쓰이는 웹 2.0이라는 구문의 도입에 따라 수많은 기사와 기자, 그리고 산업을 이끄는 사람들이 웹 3.0이라는 용어를 사용하여 앞으로의 인터넷 혁명의 파동에 대한 가설을 세운다.

월드 와이드 웹의 혁명의 다음 단계에 대한 관점은 매우 다양하다. 어떠한 사람들은 시맨틱 웹과 같은 새로 생겨난 기술들이 사람들에게 쓰이는 웹을 변형시킬 것이며 인공 지능에 대한 새로운 가능성을 부여할 것이라고 믿고 있다. 다른 공상가들은 인터넷 연결 속도가 빨라지고 모듈식 웹 애플리케이션의 수가 증가되며 컴퓨터 그래픽스가 앞서 나가게 됨에 따라 월드 와이드 웹의 혁명에 중요한 역할을 하게 될 것이라고 넌지시 말을 던지기도 했다.

 

http://ko.wikipedia.org/wiki/%EC%9B%B9_3.0

 

 

 

4. 시맨틱 웹 (네이트닷컴에 생겼더라)

 

시맨틱 웹(Semantic Web)은 현재의 인터넷과 같은 분산환경에서 리소스(웹 문서, 각종 화일, 서비스 등)에 대한 정보와 자원 사이의 관계-의미 정보(Semanteme)를 기계(컴퓨터)가 처리할 수 있는 온톨로지형태로 표현하고, 이를 자동화된 기계(컴퓨터)가 처리하도록 하는 프레임워크이자 기술이다. 웹의 창시자인 팀 버너스 리가 1998년 제안했고 현재 W3C에 의해 표준화 작업이 진행중이다.

 

시맨틱 웹과 현재 웹의 차이 [편집]

기존의 HTML로 작성된 문서는 컴퓨터가 의미정보를 해석할 수 있는 메타 데이터보다는 사람의 눈으로 보기에 용이한 시각정보에 대한 메타데이터와 자연어로 기술된 문장으로 가득 차 있다. 예를 들어 <em>바나나</em>는 <em>노란색</em>이다. 라는 예에서 볼 수 있듯 <em>이라는 태그는 단지 바나나노란색이라는 단어를 강조하기 위해 사용된다. 이 HTML을 받아서 처리하는 기계(컴퓨터)는 바나나 라는 개념과 노란색 이라는 개념이 어떤 관계를 가지는지 해석할 수 없다. 단지 <em> 태그로 둘러싸인 구절을 다르게 표시하여 시각적으로 강조를 할 뿐이다. 게다가 바나나가 노란색이라는 것을 서술하는 예의 문장은 자연어로 작성되었으며 기계는 단순한 문자열로 해석하여 화면에 표시한다.

시맨틱 웹은 XML에 기반한 시맨틱 마크업 언어를 기반으로 한다. 가장 단순한 형태인 RDF는 <Subject, Predicate, Object>의 트리플 형태로 개념을 표현한다. 위의 예를 트리플로 표현하면 <urn:바나나, urn:색, urn:노랑>과 같이 표현할 수 있다. 이렇게 표현된 트리플을 컴퓨터가 해석하여 urn:바나나 라는 개념은 urn:노랑 이라는 urn:색 을 가지고 있다는 개념을 해석하고 처리할 수 있게 된다. 보다 구체적인 예로 네이버가 NHN 소유임을 나타내는 트리플은 <http://naver.com, urn:wikipedia-ko:소유, http://nhncorp.com> 과 같이 된다. 시맨틱 웹은 이러한 트리플 구조에 기반하여 그래프 형태로 의미정보인 온톨로지를 표현한다.

 

 

시멘틱 웹의 개념

 

웹 기술은 정보표현과 전달에 간편한 방법을 제공하여 인터넷이 실생활까지 확산되는 기폭제 역할을 하였다. 그러나, 웹상에 축적된 정보가 방대한 짐에 따라 많은 문제에 봉착하게 되었다. 웹 기술은 축적된 방대한 데이터에 대하여 키워드(keyword)에 의한 정보 접근만을 허용하고 있어, 정보 검색시 무수히 많은 불필요한 정보가 돌출하여 정보 홍수를 가중시키고 있다. 또한, 컴퓨터가 필요한 정보를 추출, 해석, 가공할 수 있는 방법이 없어, 그림1(a) 처럼 모든 정보를 사용자가 직접 개입해서 처리하여야 하는 문제가 있다. 이러한 문제들의 근본원인은 컴퓨터가 정보자원의 의미를 이해하지 못하는데 원인이 있다. 이러한 웹 기술은 팀 버너스리가 초창기에 구상하였던 웹과도 거리가 있다.

2001년 팀 버너스리등에 의해 웹 기술의 비젼으로 시맨틱웹이 제시되었다. 시맨틱웹은 기존 웹을 확장하여 컴퓨터가 이해할 수 있는 잘 정의된 의미를 기반으로 의미적 상호운용성(semantic inteoperability)을 실현하여, 다양한 정보자원의 처리 자동화, 데이터의 통합 및 재사용등을 컴퓨터가 스스로 수행하여, 인간과 컴퓨터 간의 효과적인 협력체계를 구축하기 위한 것이다. 즉, 시맨틱웹은 컴퓨터가 웹 정보자원의 의미를 이해하고, 정보의 검색, 추출, 해석, 가공등 제반 처리를 사용자를 대신하여 지능형 에이전트(intelligent agent)가 수행하는 컴퓨터 중심의 기술이다. 일반적으로 시맨틱웹의 개념은 그림1(b)로 표현할 수 있으며, 3가지 주요 요소로 구성된다.

 

file.jpg

 

온톨로지(ontology)

온톨로지는 도메인의 공유된 개념화(conceptualization)에 대한 형식적 명세체제로서, 도메인 어휘의 의미 정보를 표현한다. 온톨로지는 일종의 지식 표현(knowledge representation)으로, 컴퓨터는 온톨로지로 표현된 개념을 이해하고 지식처리를 할 수 있다. 추론, 증명등의 처리에 온톨로지의 공리(axiom)와 규칙(rule)이 사용되며, 규칙 표현을 위해서 별도의 규칙 언어가 사용된다.

● 의미적으로 주석화된 웹(semantically annotated Web)

온톨로지로 주석화된 웹 정보 자원은 일종의 지식베이스를 형성한다. 시맨틱웹에서는 온톨로지의 의미적 상호 운용성을 기반으로 인터넷의 분산 정보 자원을 의미적으로 통합한 거대한 지식 베이스를 구축할 수 있다.

에이전트(agent)

인간(사용자)를 대신하여 정보 자원을 수집, 검색하고 추론하여, 온톨로지를 이용해서 다른 에이전트와 상호 정보 교환등의 일을 수행하는 지능형 에이전트이다. 지능형 에이전트는 시맨틱웹 기반 응용 서비스의 핵심 요소라 할 수 있다.

 

http://ko.wikipedia.org/wiki/%EC%8B%9C%EB%A7%A8%ED%8B%B1_%EC%9B%B9





출처 서울 홈즈의 럭셔리 브랜드 스쿨 | Seoul Holmes









도도한 학자들, 웹2.0에 마음을 열다 : 학술지의 아성을 흔든 arXiv ▶ 도서관2.0와 웃는 이야기





지난 글을 통하여 웹 2.0이 어떻게 학계를, 특히 보수적이고 까다롭기로 소문난 학술지를 어떻게 바꾸어나가고 있는지 그 흐름에 대해서 살펴보았습니다. 이제부터는 예전에 예고한 대로 이러한 학술지들을 살펴보고, 이들의 현재와 미래에 대해 논해보는 시간을 갖도록 하겠습니다. 오늘은 그 첫 번째 순서로 요즘 학계에서 매우 크게 이슈화 되고 있는 arXiv에 대해서 알아보도록 하겠습니다.

1. arXiv란 무엇인가?

아키브? 아카이브? 어떻게 읽어야 할지 헷갈리는 이 요상한 이름(?)의 정체는 도대체 무엇일까요. arXiv는 미국 Cornell 대학교의 도서관에서 지원하는 서비스로, 자유로운 검색 및 업로드/다운로드가 가능한 일종의 논문 보관소 역할을 하는 서비스입니다. 조금 더 자세하게 알아보기 위해서 위키에서 뜻을 가져와 보겠습니다. (물론 이번에도 제 마음대로 하는 해석을 달아보았습니다 ^^;;)

The arXiv is an archive for electronic preprints of scientific papers in the fields of mathematics, physics, computer science, quantitative biology and statistics which can be accessed via the Internet.[각주:1]
arXiv는 수학, 물리, 컴퓨터 과학, 계량 생물학, 통계학 분야에 대해 작성된 논문들을 출판 이전의 전자문서(electronic preprints) 형태로 모아놓은 문서 보관소이다. 이 보관소는 인터넷을 통해 자유롭게 접근할 수 있다.

이쯤 되면 아마 읽는 독자 여러분들도 뭔가 이상한 점을 느끼셨을지 모르겠습니다. 눈치 빠르신 분들은 혹시 느끼셨을지 모르겠네요. 사실 이 arXiv란 녀석, 학술지가 아닙니다. 공신력 있는 학술지는 커녕, 말 그대로 논문의 출판 이전 판본을 보관하는 그저 문서 보관소에 불과한 녀석이죠. 아니, 그럼 대체 이게 왜 그렇게 주목해야 할 대상인 것일까요? 지금부터 한번 자세히 들여다 보도록 하겠습니다.

2. arXiv의 과거와 현재

먼저, arXiv의 시작을 보기 위해 1991년으로 거슬러 올라가 봅시다. 미국 뉴멕시코주에 있는 로스 앨러모스 국가 연구소(Los Alamos National Laboratory)의 한 구석에서는 물리학자 몇명이 머리를 싸매고 끙끙 앓고 있었으니, 그 문제는 연구 정보의 관리 및 전달 문제였습니다. 

과거 원자폭탄을 만들어냈던 맨하튼 프로젝트가 기원이 된 연구소 답게 로스 앨러모스에서는 고에너지 이론 물리학(High-Energy Theoretical Physics)에 대한 연구가 매우 활발하게 이루어지고 있었습니다. 하지만, 이렇게 활발하게 이루어지는 연구를 동료 학자들과 교환하는 것은 의외로 매우 골치아픈 일이었습니다. 골치아픈 문제는 크게 두 가지였습니다. 하나는 연구자들이 자신이 거둔 연구 성과를 수백명이 되는 다른 연구자들에게 배포할 수 있는 방안이 마땅치 않다는 것이었고(연구자 개개인이 모두 메일링 리스트를 관리할 수는 없는 거니까요, 거기다 이 당시에는 메일 서버의 트래픽 문제도 심각했구요), 다른 하나는 연구 성과를 메일로 계속해서 받다보니 저장공간이 턱없이 모자르다는 것이었습니다. 사실 정말 큰 문제는 후자였다고 하는데요, 지금이야 저장공간이 넉넉할 지 몰라도 그 당시에는 로스 앨러모스 연구소의 연구원 한 사람당 할당된 메일 용량이 고작 0.5 Mbyte 정도 수준이었다고 합니다. 이렇게 적은 용량으로 모든 연구 성과를 주고 받으며 관리하기에는 그야말로 택도 없었겠죠? 




arXiv의 창시자인 Paul Ginsparg(현 Cornell University 교수) 박사. 
이 사람을 따라 arXiv도 지금은 Cornell University에 자리를 잡았습니다. 


역시 천재적인 머리를 가진 사람들이 모인 곳이라 그런지, 이런 문제에 대한 해결책도 금방 제시되었습니다. 연구소에 처음으로 자리를 잡은 새내기 연구원인 Paul Ginsparg 박사(현 Cornell University의 물리학과 교수)는 동료 물리학자의 조언을 바탕으로 연구 정보를 교환할 수 있는 새로운 아이디어를 고안해내기에 이릅니다. 그것은 연구 자료의 수집과 배포를 자동으로 수행하는 중앙화된 문서 저장소(Centralized Automated Repository)를 인터넷 상에 구축하는 것 이었습니다. 



즉, 위 그림처럼 연구자 개개인이 수집한 자료를 일일이 모두에게 직접 배포하는 대신, 

이처럼 보내는 사람과 받는 사람 사이에 정보 전달을 매개하는 데이터 센터를 두어서, 이와 같은 배포가 자동으로, 그리고 효율적으로 이루어질 수 있게 하는 것입니다. 

이를 구현하기 위하여 Ginsparg 박사는 FTP 서버와 메일 서버를 연동하였습니다. 여기서 FTP는 연구 정보의 업로드 및 다운로드는 를 구현하도록 하기 위한 수단으로, 그리고 메일은 연구 정보의 새로운 업데이트가 있을 때마다 이들의 초록만을 간략하게 안내하기 위한 수단으로 사용됩니다. 이제 메일을 구독하는 연구자들 중에, 자료 및 논문 전문에 접근하고자 하는 사람들만 FTP 서버에 접속하여 관련 자료를 다운로드 받게 되는 것이죠. Ginsparg 박사는 이 데이터베이스의 이름을 hep-th로 명명하고 시작했었는데요, 이는 이들의 연구 분야였던 High Energy Physics-Theory 의 머릿글자라고 합니다.[각주:2]

이렇게 태어난 hep-th는 얼마 지나지 않아 큰 전환점을 맞게 됩니다. 1992년, 동료 연구자를 통해 월드 와이드 웹이라는 새로운 개념을 처음으로(!) 접하게 된 Ginsparg 박사는 메일/FTP 서버를 이용하던 hep-th 데이터베이스를 웹서버 기반으로 바꾸는 작업에 착수하게 됩니다. 여러 기관의 도움을 받아 마침내 1994년에는 웹서버로의 구현을 완료하게 됩니다. 이러면서 hep-th는 본격적으로 인터넷 상에 데뷔를 하게 됩니다.



초기 hep-th의 인터페이스. 왼쪽 상단에 가장 앞쪽에 보이는 메일 클라이언트로 논문 초록을 안내받고, 그 뒤에 있는 브라우저로 FTP에 접속하여 논문을 다운받곤 했다는군요. 그렇게 해서 받은 논문이 가장 맨 뒤의 창에 나타나 있는 논문이라고 합니다.[각주:3]


이렇게 넷 상에서의 hep-th의 노출이 점점 많아지면서, 결국 다른 분야를 연구하던 사람들까지 이에 주목하기 시작했습니다. 이러한 방식을 따르면 연구 자료를 배포하는 데 소요되는 트래픽 비용과 데이터 스토리지 비용 모두를 아끼면서 보다 효과적으로 연구성과를 공유할 수 있도록 하니까요. 이제 서로 메일로 자료를 마구 뿌려가며 공유하는 대신, 이 저장소에만 올리면 되니까요. 얼마 지나지 않아 Ginsparg 박사는 hep-th 데이터베이스를 다른 과학 분야의 논문들도 이용할 수 있게 데이터베이스를 확장해 달라는 요청을 받게 됩니다. 그리고 이를 수용하면서부터 hep-th는 비약적인 성장을 하기 시작합니다. 그리고 보다 열린 서비스를 지향하는 차원에서 이름을 arXiv으로 바꾸는데요, 이는 문서 보관소를 뜻하는 영단어 'archive'에서 따온 말입니다.

이제 arXiv는 자연과학 분야에 있어서 엄청난 영향을 끼치는 존재가 되었습니다. 2008년 기준으로 현재 arXiv가 커버하는 과학의 분야는 물리학, 수학, 컴퓨터 과학, 계량생물학, 수리 재무학과 통계학을 아우르고 있으며, 등록된 논문의 수는 자그마치 50만건을 돌파하였습니다. 더 놀라운 것은, 현재 매 달마다 5000건 내외의 논문이 업로드 되고 있으며 제출되는 수가 시간이 지날 수록 점점 증가하고 있다는 것입니다.[각주:4] 



arXiv에 매 달 등록되는 논문 수의 증가추세. "시작은 미미했지만 그 끝은 창대하리라"


그 뿐만이 아닙니다. 이제는 아예 학술지에 논문을 제출하지 않고 arXiv에 연구결과를 발표하는 경우도 나타나고 있습니다. 우리나라에서는 '필즈상을 거부한 도인 수학자(?)'로 널리 알려진 러시아의 Grigori Perelman 박사[각주:5]는 수학계의 악명 높은 난제로 알려진 푸앙카레 추측에 대한 증명의 풀이를 arXiv에만 공개하기도 했습니다. 이런 말을 남기면서 말이죠. "만약 누구든 간에 내 풀이 방식에 관심이 있다면, arXiv에 다 있으니 가서 읽어봐라." 그리고 현재 이곳에 올린 그의 풀이방법은 전세계의 많은 수학자들에 의해 검증되고 있는데, 아직까지 틀렸다는 지적이 나오고 있지 않아 맞다고 판명될 가능성이 매우 높다고 합니다. 이렇듯 arXiv는 이제 학술지의 입지마저도 위협하는 위치에 이르기 시작했습니다.



필즈상 수상을 거부하고 매달 5만원의 연금만으로 노모를 모시며 사는 
이 시대의 쿨가이 그리고리 페렐만 박사. 어쩌면 돈이 없어서 arXiv에 올리는 지도...?



3. 대체 왜 과학자들은 arXiv에 환호하는가?

이렇듯 arXiv는 현재 과학자들의 전폭적인 지지를 바탕으로 꾸준히, 그리고 무섭게 성장하고 있습니다. 그렇다면 과연, 이 arXiv는 어떻게 이와 같이 과학자들의 엄청난 호응을 받을 수 있었던 것일까요? 

꼼꼼한 심사를 통해 얻어진 권위로? 글쎄요. arXiv는 투고하는 문서에 대해 어떠한 종류의 심사도 하지 않고 바로 등록해주는 것으로 유명하죠. 간혹가다 관리자가 등록된 논문을 옮기기도 한다고 하지만, 어디까지나 등록된 분야와 내용이 일치하지 않는 경우에 한해서만 이를 수행한다고 하네요. 

서비스 이용자들을 배려하는 편의성은? 으음... 그것도 글쎄요. 확실한 비교를 위하여 한번 아래 arXiv의 화면을 Nature의 화면과 함께 비교해서 보도록 하겠습니다.



들어가자마자 뭔가 있어보이는 듯한 느낌을 확 주는 Nature의 홈페이지


사용자 삽입 이미지

아니, 이 허접한 화면은 뭐지? 처음 보는 사람을 당황하게 만드는 arXiv


물론 Nature나 Science같이 화려하지는 않더라도 보통 학술지의 인터넷 홈페이지 하면 어느 정도 잘 꾸며놓고 있는게 보통인데, 외관이 삐까번쩍하긴 커녕 그냥 버려둔 것 처럼 링크만 덕지덕지 붙어있는게 뭔가 더 수상한 기분이 들게 만들죠. 혹시 망한 연구실 홈페이지가 아닌가 싶은 생각이 들 정도로 말이죠.

그럼 대체 무엇이 이렇게 보기만 해도 답답해 보이는 홈페이지에 많은 과학자들이 열광하도록 만드는 것일까요? 그것은 arXiv가 현재 모든 과학자들이 공통적으로 가지고 있는 니즈를 정확하게 반영하고 있기 때문이 아닐까 합니다. 

이를 보다 자세히 알아보기 위해서 요즘 과학자들이 대체 뭘 원하는지 잠깐 살펴보도록 합시다. 지난 글에서 언급했듯이, 21세기 과학계는 국경을 넘나드는 협업과 살벌한 경쟁이 공존하는 환경에 놓여 있습니다. 이에 과학자들은 어떻게든 자신의 연구 성과가 빨리 공개되어, 우선권을 남에게 뺏기지 않으면서 동료 과학자들로부터 연구에 대한 피드백을 최대한 빨리 제공받는 수 있게 되는 것을 가장 절실하게 느끼기 시작했습니다. arXiv는 이러한 기대에 완벽하게 부합하였기 때문에 과학자들의 열광적인 지지를 얻을 수 있었던 것입니다.

이 이야기 만으로는 와닿는 점이 없으시다면, 역지사지라고 했죠! 이제 막 연구 성과를 공개하고자 하는 과학자의 입장에 서보도록 하겠습니다. 과학자들이 연구결과를 바탕으로 논문을 쓰면, 기존까지는 으레 학술지에 제출하여 심사를 기다리곤 했습니다. 지난 글에서도 말씀드렸다시피, 이렇게 논문을 제출하고 나면 심사 결과가 나올 때까지 6개월에서 길게는 1년동안 손가락만 빨고 있는 신세가 되어 버립니다. 물론 그동안 아무 일도 안하고 노는건 아니겠지만(설마!!), 이미 심사가 끝나버린 다음에는 그 연구 성과는 더이상 최신이 아닌 것이 되어 버리겠죠. 빨리 피드백을 받아 연구를 발전시키고 싶은 연구자들에게 이러한 시간은 아깝다 못해 피눈물이 날 정도가 아닐까 싶습니다. 논문 심사 중에 다른 연구 그룹이 같은 내용으로 먼저 논문을 내버리거나 심사 끝에 논문이 거부당할 수 있다는 불안감이야 덤이겠죠 :(

하지만 arXiv가 나온 다음부터 과학자들은 이에 대한 고민을 덜게 됩니다. 이제 과학자들은 자신이 쓴 논문을 학술지에 제출하기 전에 먼저 arXiv에 업로드를 합니다. arXiv는 논문을 업로드 하는데 아무런 제약 조건이 존재하지 않으므로, 과학자들은 몇 번의 클릭 만으로 자신의 연구 결과를 바로 공개할 수 있습니다. 논문을 언제 최초로 arXiv에 올렸는지 그 날짜도 기록이 되는 것은 물론입니다. 따라서 이렇게 arXiv을 통해 공개를 하게 되면, 과학자들은 심사가 더러 오래 걸리더라도 앞서 구구절절 설명한 근심들을 덜게 될 것입니다.



arXiv에 등록된 논문 정보. 언제 처음으로 제출했는지, 수정사항이 있다면 언제 고쳤는지, 그리고 어떤 학술지에 제출했는지에 대한 정보까지 모두 제공됩니다.


이 뿐만이 아닙니다. 이렇게 arXiv에 업로드를 한 논문은 저자의 선택에 따라 RSS를 통하여 구독자들에게 발행할 수 있습니다 (마치 블로그와 같이 말이죠!). 이로써 논문의 저자는 전 세계의 수많은 과학자들에게 자신의 연구성과를 직접 전달할 수 있게 되었습니다. 이제 이렇게 배달된 논문을 읽어본 전 세계의 수많은 동료 과학자들은 메일을 통해 궁금한 점이나 지적할 점들을 가감없이 묻습니다. 번거로운 중간과정 없이 같은 분야의 연구자들끼리 곧바로 의견을 주고받을 수 있게 된 것입니다. 피드백은 예전보다 훨씬 빨라졌으며, 양적으로나 질적으로나 한층 발전하였습니다. 학계에서 이상적으로 꿈꿔왔던 동료 심사(peer review)의 모습이란 바로 이런 것이 아닐까요? 이 대목에서, 지난 글에서 인용했던 인터뷰 기사를 다시 한번 살펴보도록 합시다.

우리가 원하는 건 그저 동료들에게 검증받은 유효한 정보일 뿐입니다. 솔직히 논문 편집위원이 학술지에 싣기 위해 검증을 하는 것이든, 그냥 주제에 관심있는 사람들이 arXiv에 올린 원고를 읽고 이메일로 직접 피드백을 주는 것이든 무슨 차이가 있겠습니까? 그건 사실 똑같은 것이나 다름 없는것입니다.

4. arXiv와 웹 2.0 시대의 과학 연구 방향

이렇듯 과학자들의 가려운 부분을 시원하게 긁어주는 효자손과 같은 기능을 100% 했기에 arXiv는 지금과 같은 공전의 히트를 칠 수 있었습니다. 이제 arXiv는 더이상 마이너한 논문 보관소 것이 아닌, 과학계에 불어닥치는 태풍의 핵이 되었습니다. 웹을 통해 실시간으로 연구 성과의 공유 및 검토(peer review)가 이루어지는 모습은, 과학자들이 웹을 통해 자발적으로 조직화하여 거대한 집단지성을 이루어가는 모습을 단적으로 보여주고 있습니다. 이로써 학계는 태고적부터 학자들이라면 한번쯤은 꿈꾸던 이상적인 모습에 한발짝 더 성큼 다가설 수 있게 되었습니다.

이렇듯 웹을 통해 능동적인 학술 교류의 장을 제공함으로써, arXiv는 단순히 연구 성과의 발표 기능만 해왔던 학술지의 아성을 송두리째 흔들게 되었습니다. 물론 학술지들도 구독회원을 대상으로 웹 기반의 서비스를 제공하고, RSS 피드 등을 제공하는 등 각종 대책을 강구하고 있습니다. 그렇지만 이미 근본적인 패러다임이 변화한 현재, 이러한 대책들은 대부분 땜질식 처방에 지나지 않으며, 혁신을 만들어내지 않으면 종국에 가서는 도태하게 될 위기에 처해 있다 보입니다.






출처 - http://vcnc.tistory.com/10 








1 2 3 4 5 6 7 8 9