바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 재이용데이터, 검색결과: 135
11
이혜경(대구가톨릭대학교 문헌정보학과 강사) ; 이용구(경북대학교 문헌정보학과) 2023, Vol.40, No.4, pp.429-450 https://doi.org/10.3743/KOSIM.2023.40.4.429
초록보기
초록

본 연구의 목적은 오픈 데이터 관련 연구의 최근 동향과 지적 구조를 고찰하는 것이다. 이를 위하여 본 연구는 Scopus에서 저자 키워드로 ‘open data’를 검색하여 1999년부터 2023년까지 총 6,543건의 논문을 수집하였으며, 데이터 전처리 이후 5,589편 논문의 저자 키워드를 대상으로 오픈 데이터 관련 연구 분야 및 링크드 오픈 데이터 관련 연구 분야의 중심성 도출과 네트워크 분석을 수행하였다. 그 결과, 오픈 데이터 관련 연구에서는 ‘big data’가 가장 높은 중심성을 보였으며, 주로 공공데이터 개념의 오픈 데이터로서의 활용 및 정책 적용 연구, 빅데이터와의 연관개념으로서의 오픈 데이터를 활용한 데이터 분석에 관한 연구, 오픈 데이터의 재생산이나 활용 및 접근과 같은 오픈 데이터의 이용과 관련한 주제의 연구가 이뤄지고 있음이 나타났다. 그리고 링크드 오픈 데이터 관련 연구는 삼각매개중심성 및 최근접이웃중심성에서 모두 ‘semantic web’이 가장 높은 것으로 나타났으며, 정부 정책의 공공데이터보다 데이터 연계와 관계 형성을 중점으로 한 연구가 많이 수행된 것으로 나타났다.

Abstract

The purpose of this study is to examine recent trends and intellectual structures in research related to open data. To achieve this, the study conducted a search for the keyword “open data” in Scopus and collected a total of 6,543 papers from 1999 to 2023. After data preprocessing, the study focused on the author keywords of 5,589 papers to perform network analysis and derive centrality in the field of open data research and linked open data research. As a result, the study found that “big data” exhibited the highest centrality in research related to open data. The research in this area mainly focuses on the utilization of open data as a concept of public data, studies on the application of open data in analysis related to big data as an associated concept, and research on topics related to the use of open data, such as the reproduction, utilization, and access of open data. In linked open data research, both triadic centrality and closeness centrality showed that “the semantic web” had the highest centrality. Moreover, it was observed that research emphasizing data linkage and relationship formation, rather than public data policies, was more prevalent in this field.

12
방승윤(순천향대학교) ; 주경수(순천향대학교) 2002, Vol.19, No.2, pp.49-67 https://doi.org/10.3743/KOSIM.2002.19.2.049
초록보기
초록

B2B 전자상거래와 같이 XML을 이용한 정보교환이 확산되고 있으며 이에 따라 상호 교환되는 정보에 대하여 체계적이며 안정적인 저장관리가 요구되고 있다. 이를 위해 XML 응용과 데이터 베이스간의 연계를 위한 다양한 연구가 이루어지고 있다. 특히 계층적 구조를 갖는 XML 파일을 다양한 형태의 데이터베이스에 저장하기 위한 데이터 모델링 방안이 요구된다. 본 논문에서는 UML을 이용한, 다양한 형태의 데이터베이스 기반의 XML 응용을 위한 통합설계 방법론을 제안한다. 이를 위하여 먼저 UML을 이용하여 W3C XML schema를 설계하기 위한 XML 모델링 방안을 제시하고, 아울러 교환되는 XML 파일을 저장 관리하기 위하여 객체-관계 데이터베이스 스키마와 객체지향 데이터베이스 스키마 그리고 관계형 데이터베이스 스키마 설계를 위한 데이터 모델링 방법을 제안한다.

Abstract

Nowadays an information exchange on XML such as B2B electronic commerce is spreading. Therefore the systematic and stable management mechanism for storing the exchanged information is needed. For this goal there are many research activities for connection between XML application and database. Accordingly, A unified modeling methodology need to store the XML file on the variety database. In this paper, we propose a unified design methodology for XML applications based on variety databases using UML. To this goal, first we introduce a XML modeling methodology to design W3C XML schema using UML and second we propose data modeling methodology for object-relational database schema, object oriented database an schema and relational database schema to store efficiently XML data in databases.

13
채하영(숙명여자대학교 문헌정보학과 석사과정) ; 이지수(숙명여자대학교 문헌정보학과) 2023, Vol.40, No.4, pp.201-228 https://doi.org/10.3743/KOSIM.2023.40.4.201
초록보기
초록

본 연구는 국내외 사서 채용 동향을 분석하기 위해 수행되었다. 연구 대상으로 국내데이터는 인터넷 포털 사이트인 “사서e마을”에 게시된 사서 채용 공고를 총 489개를 수집하였고, 해외데이터는 “ALAJobList”에서 6,600개의 자료를 수집하였다. 기간은 2020년 1월부터 2022년 8월까지이며 수집된 데이터를 대상으로 지역 분포도 분석, 빈도 분석, 토픽모델링을 수행하였다. 연구 결과, 채용 공고의 지역분포도는 국내데이터에서 서울이 280건으로 가장 많았으며, 해외데이터는 캘리포니아(California)가 662건으로 상위로 도출되었다. 빈도분석 결과, 국내데이터의 담당업무에서는 ‘관리’ 23.42% 키워드가 높게 나왔고, 자격요건은 ‘자격증’ 16.61%이 가장 많은 비율을 차지했다. 해외데이터의 담당업무에서는 ‘LibraryService’ 8.72% 비율이 높게 나왔으며, 자격요건은 ‘CommunicationSkills’ 10.13% 키워드가 가장 높은 순위에 위치함을 확인했다. 토픽모델링에서는 국내외 담당업무, 자격요건으로 나눠 총 4가지의 영역을 살펴보았다. 분석 결과, 국내외 채용 공고에서 도출된 사서의 담당업무 및 자격요건이 미국도서관협회(ALA) 및 한국도서관협회 등 주요 도서관 관련 협회에서 제시한 핵심 역량과 연관이 있음을 확인하였다.

Abstract

This study was conducted to analyze the trends of librarian job recruitment in Korea and overseas. A total of 489 librarian job postings posted on the internet portal site “Saseo e-Ma-eul” were collected for the Korean data, and 6,600 data were collected from “ALAJobList” for the international data. The research period spans from January 2020 to August 2022. The data were subjected to regional distribution analysis, frequency analysis, and topic modeling. As a result of the study, the number of Korean librarian job postings was the highest in Seoul with 280, while California was the state with the highest number of job postings overseas with 662. According to the frequency analysis, the main task of Korean data is ‘management’ 23.42%, and the core competency is ‘certificate’ 16.61%. For overseas data, ‘Library Service’ is the main task of 8.72%, and ‘Communication Skills’ is the most important core competency of 10.13%. In topic modeling, five topics were identified for each area 4 in total, including Korean and international job description and requirements. The analysis results confirm that the duties and qualifications derived from Korean and international job postings for librarians are related to the core competencies proposed by major library associations such as the American Library Association (ALA) and the Korean Library Association.

초록보기
초록

본 연구에서 제안하는 기법은 최대 개념강도 인지기법(Maximal Concept-Strength Recognition Method: MCR)이다. 신규 데이터베이스가 입수되어 자동분류가 필요한 경우에, 기 구축된 여러 데이터베이스 중에서 최적의 데이터베이스가 어떤 것인지 알 수 없는 상태에서 MCR 기법은 가장 유사한 데이터베이스를 선택할 수 있는 방법을 제공한다. 실험을 위해 서로 다른 4개의 학술 데이터베이스 환경을 구성하고 MCR 기법을 이용하여 최고의 성능값을 측정하였다. 실험 결과, MCR을 이용하여 최적의 데이터베이스를 정확히 선택할 수 있었으며 MCR을 이용한 자동분류 정확률도 최고치에 근접하는 결과를 보여주었다.

Abstract

The proposed method in this study is the Maximal Concept-Strength Recognition Method(MCR). In case that we don't know which database is the most suitable for automatic-classification when new database is imported, MCR method can support to select the most similar database among many databases in the legacy system. For experiments, we constructed four heterogeneous scholarly databases and measured the best performance with MCR method. In result, we retrieved the exact database expected and the precision value of MCR based automatic-classification was close to the best performance.

15
곽지영곽지영(법원도서관 사서) 2023, Vol.40, No.3, pp.143-162 https://doi.org/10.3743/KOSIM.2023.40.3.143
초록보기
초록

본 연구는 법원도서관 법마루 도서대출 데이터를 분석하여 이용자 대출 패턴을 파악하고 분석 결과를 향후 이용자 서비스에 반영하는 방안을 제안하였다. 2022년 법마루의 소장 도서는 212,608권이었으며, 법률서가 73%를 차지하고 있었다. 그러나 실제 대출은 일반서가 83%의 비중을 차지하고 있었다. 주제별 이용계수를 살펴보면 문학 분야가 5.85로 가장 활발히 이용되고 있었고 법학 분야가 0.23으로 가장 저조하게 이용되고 있었다. 상호대차의 경우, KERIS 가입 회원기관과 대한변호사협회 모두 제법 분야, 민법 분야, 사법소송절차 분야 순으로 대출 비율이 높았다. 다만, 법학계인 KERIS 가입 회원기관이 실무계인 대한변호사협회에 비해 더 다양한 주제 분야의 법률서를 대출하고 있었다. 법률정보의 접근권 향상을 위해 법마루 대국민 대출서비스를 시행했지만 실제로는 열람 공간의 이용이 높았고, 대출 역시 일반서의 비중이 월등히 높다는 것을 확인할 수 있었다. 이를 개선하기 위해서는 법마루 대출 서비스 홍보 강화 및 개인화 서비스 제공, 도서대출 규정 정비 온라인서비스 강화 및 협력네트워크 구축 등이 필요할 것으로 보인다.

Abstract

This study analyzed the Beopmaru, Supreme Court Library of Korea, circulation data to identify user lending patterns and proposed a plan to reflect the analysis results in future user services. In 2022, Beopmaru's collection of books was 212,608, with law books accounting for 73%. However, general books accounted for 83% of actual circulation. Looking at the usage coefficient by topic, the literature field was the most actively used at 5.85, and the law field was the least used at 0.23. In the case of interlibrary loan, both KERIS member institutions and the Korean Bar Association had the highest loan ratios in the legal field, civil law field, and judicial litigation procedure field, in that order. However, member institutions affiliated with KERIS, a legal academic community, were lending law books on a wider range of subject areas than the Korean Bar Association, a practical organization. To improve access to legal information, the Beopmaru public service was implemented, but in reality, the use of reading space was high, and the proportion of general books loaned was much higher. In order to improve this, it seems necessary to strengthen the promotion of Beopmaru loan services, provide personalized services, improve book lending regulations, strengthen online services, and establish a cooperative network.

초록보기
초록

Abstract

This study aims to identify and categorize the content and public use patterns of social scientists’ informal communication activities. Using Twitter data, we identified Korean 736 social scientists who participated in communication activities with the public, and analyzed 4,548 tweets that revealed their informal communication activities. This study is meaningful in that it explored informal communication between social scientists and the public, which was not previously revealed in scholarly communication, and identified the types of informal communication activities, communication media, and collaborative sectors in detail.

17
하승록(명지대학교 기록정보과학전문대학원 기록관리전공) ; 임진희(서울특별시청) ; 이해영(명지대학교) 2017, Vol.34, No.1, pp.341-371 https://doi.org/10.3743/KOSIM.2017.34.1.341
초록보기
초록

웹을 통해 제공되는 서비스는 현재 문서중심에서 데이터 중심으로 변화를 겪고 있으며, 그 변화의 중심에는 Linked Open Data(LOD)가 존재한다. 본 연구는 이러한 흐름에 부응하여 기록정보의 LOD 구축을 위한 구체적인 절차와 방법을 살펴보고자 하였다. 또한 소규모 아카이브의 서비스 지속가능성을 염두에 두고, 오픈소스 소프트웨어를 활용하여 LOD 구축 절차를 진행하는 범례를 제시하고자 했다. 이에 본 연구에서는 LOD 구축을 위한 5단계의 프레임워크를 제안했다. 그리고 일상아카이브인 ‘인간과 기억 아카이브’의 일기 기록물 컬렉션을 수집하여, 제안된 5단계 프레임워크에 따라 오픈소스 소프트웨어인 Protege와 Apache Jena Fuseki를 활용하여 POC(Proof of concept)를 진행하였다. 오픈소스를 활용하여 기록정보의 LOD를 구축한 뒤, 상호연결(Interlinking)과 SPARQL 검색을 통해서 외부 LOD와 연결되는 모습을 확인할 수 있었다. 또한 기록정보의 LOD 구축 절차 진행과정의 경험을 바탕으로 내용정보 기술의 품질 향상, 아키비스트의 역량 고도화, 기록정보의 접근성 향상을 위한 상호연결 고도화, LOD 서비스의 수준 결정, LOD 구축을 위한 도구 선정 등, 기록관 LOD 구축을 위한 필요요건을 제시했다.

Abstract

Recently, the web service environment has changed from document-centered to data-oriented focus, and the Linked Open Data(LOD) exists at the core of the new environment. Specific procedures and methods were examined to build the LOD of records information in accordance with this trend. With the service sustainability of small-scale archive in consideration, an exemplification on LOD building process by utilizing open source software was developed in this paper. To this end, a 5-step service framework for LOD construction was proposed and applied to a collection of diary records from ‘Human and Memory Archive’. Proof of Concept(POC) utilizing open source softwares, Protege and Apache Jena Fuseki, was conducted according to the proposed 5 step framework. After establishing the LOD of record information by utilizing the open source software, the connection with external LOD through interlinking and SPARQL search has been successfully performed. In addition, archives’ considerations for LOD construction, including improvement on the quality of content information, the role of the archivist, were suggested based on the understanding obtained through the LOD construction process of records information.

초록보기
초록

본 연구는 시계열 특성을 갖는 데이터의 패턴 유사도 비교를 통해 유사 추세를 보이는 키워드를 자동 분류하기 위한 효과적인 방법을 제안하는 것을 목표로 한다. 이를 위해 대량의 웹 뉴스 기사를 수집하고 키워드를 추출한 후 120개 구간을 갖는 시계열 데이터를 생성하였다. 제안한 모델의 성능 평가를 위한 테스트 셋을 구축하기 위해, 440개의 주요 키워드를 8종의 추세 유형에 따라 수작업으로 범주를 부여하였다. 본 연구에서는 시계열 분석에 널리 활용되는 동적 시간 와핑(DTW) 기법을 기반으로, 추세의 경향성을 잘 보여주는 이동 평균(MA) 기법을 DTW에 추가 적용한 응용 모델인 MA-DTW를 제안하였다, 자동 분류 성능 평가를 위해 k-최근접 이웃(kNN) 알고리즘을 적용한 결과, ED와 DTW가 각각 마이크로 평균 F1 기준 48.2%와 66.6%의 최고 점수를 보인 데 비해, 제안 모델은 최고 74.3%의 식별 성능을 보여주었다. 종합 성능 평가를 통해 측정된 모든 지표에서, 제안 모델이 기존의 ED와 DTW에 비해 우수한 성능을 보임을 확인하였다.

Abstract

This study aims to suggest an effective method for the automatic classification of keywords with similar patterns by calculating pattern similarity of temporal data. For this, large scale news on the Web were collected and time series data composed of 120 time segments were built. To make training data set for the performance test of the proposed model, 440 representative keywords were manually classified according to 8 types of trend. This study introduces a Dynamic Time Warping(DTW) method which have been commonly used in the field of time series analytics, and proposes an application model, MA-DTW based on a Moving Average(MA) method which gives a good explanation on a tendency of trend curve. As a result of the automatic classification by a k-Nearest Neighbor(kNN) algorithm, Euclidean Distance(ED) and DTW showed 48.2% and 66.6% of maximum micro-averaged F1 score respectively, whereas the proposed model represented 74.3% of the best micro-averaged F1 score. In all respect of the comprehensive experiments, the suggested model outperformed the methods of ED and DTW.

초록보기
초록

본 논문은 C대학도서관의 학술정보시스템(LAS)에 구축되어 있는 장서와 대출기록 및 고객관련 데이터를 수집하여 이를 분석하고 그 결과를 고객관계관리(CRM)에 적용할 수 있는 방안을 제시하였다. 수집된 자료는 C 대학도서관에서 소장하고 있는 대출이 가능한 단행본 총 269,387책의서지데이타와고객 12,281명의 데이터, 이용자 대출기록 39,269건이었다. 대출기록 분석 데이터에서 관계변수로 이용자 신분, 대출빈도, 대출책수와 대출횟수, 출판년도를 추출하여 데이터 마이닝 기법으로 분석하고, 상관계수로 검증하였다.

Abstract

The books and circulation-related data in the Library Automation System(LAS) of C-academic library were collected and analyzed, and also the method which may be applied to the Customer Relationship Management (CRM) based on the results was suggested in this paper. Collected data were 269,387 bibliographic data of books, 12,281 patron data, and 39,269 circulation records. User identity, circulation frequencies, total number of circulated books, and publication year as relation factor from the analyzed data of circulation records were extracted. They were also analyzed, and verified by correlation coefficient.

초록보기
초록

이 연구는 대학도서관의 웹사이트 실제 이용 데이터를 분석하여 이용자들의 이용행태를 분석하고, 웹사이트의 개선방안을 제안하는데 있다. 이 연구에서는 2018년 1월부터 2018년 12월까지 C대학교 웹사이트에서 이루어진 이용자들의 트래픽을 분석하여 이용행태를 분석하였다. 웹사이트의 분석 툴로는 ‘구글 애널리틱스’를 활용하였다. 웹 트래픽 변수는 세션, 사용자, 페이지뷰 수, 세션당 페이지수, 평균 세션 시간, 이탈률을 측정지표를 기준으로 이용자 일반적 특성, 사용자환경 분석, 방문 분석, 유입분석, 사이트 분석 5가지로 구분지어 분석하였다. 그 결과, 1) 이용자 일반적 특성을 분석 결과에서 웹사이트 접속 위치가 대한민국뿐만 아니라 중국에서도 일부 접속이 있었다. 2) 사용자 환경 분석에서는 주 이용 브라우저 유형은 인터넷 익스플로러로 나타났다. 다음 순위는 크롬이었으며, 3위와 4위인 Safari로 이탈률이 익스클로러나 크롬의 두 배에 달했다. 화면 해상도에서는 1920x1080 해상도가 가장 많은 비율을 차지하였으며 그 외에도 다양한 환경에서 접속하는 것으로 나타났다. 3) 유입 매체 분석에서는 직접 유입이 가장 높게 나타났다. 4) 사이트 분석에서는 총 페이지뷰 수인 4,534,084 페이지 중 최다 페이지뷰를 차지한 페이지는 메인페이지 다음으로 대출/연장/이력/예약 페이지, 학술DB 페이지, 소장자료 페이지 순으로 나타났다.

Abstract

This study analyzes the actual use data of the websites of university libraries, analyzes the users’ usage behavior, and proposes improvement measures for the websites. The study analyzed users’ traffic and analyzed their usage behavior from January 2018 to December 2018 on the C University website. The website’s analysis tool used ‘Google Analytics’. The web traffic variables were analyzed in five categories: user general characteristics, user environment analysis, visit analysis, inflow analysis, site analysis, and site analysis based on the metrics of sessions, users, page views, pages per session, average session time, and bounce rate. As a result, 1) In the analysis results of general characteristics of users, there was some access to the website not only in Korea but also in China. 2) In the user experience analysis, the main browser type appeared as Internet Explorer. The next place was Chrome, with a bounce rate of Safari, third and fourth, double that of the Explore or Chrome. In terms of screen resolution, 1920x1080 resolution accounted for the largest percentage, with access in a variety of other environments. 3) Direct inflow was the highest in the inflow media analysis. 4) The site analysis showed the most page views out of 4,534,084 pages, followed by the main page, followed by the lending/extension/history/booking page, the academic DB page, and the collection page.

정보관리학회지