바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 연구데이터, 검색결과: 21
1
김성훈(성균관대학교 문헌정보학과) ; 오삼균(성균관대학교 문헌정보학과) 2018, Vol.35, No.2, pp.141-165 https://doi.org/10.3743/KOSIM.2018.35.2.141
초록보기
초록

본 연구의 목적은 연구데이터 관리서비스 구현 시 성공적인 서비스를 위한 고려사항을 도출하는 것이다. 이를 위해 선행연구를 활용하여 연구데이터 관리서비스의 영역을 파악하였고, 미국, 독일, 호주에서 연구데이터 관리서비스를 시행중인 대학도서관 6곳과 1개의 기관에서 담당자 8명을 대상으로 연구데이터 서비스에 관한 질문의 답변을 이메일을 통해 수집하였다. 또 해외서비스를 대상으로 수집한 고려사항이 국내에 적용가능한지 국내 연구데이터 관리서비스 전문가와 검토하였다. 연구데이터 서비스 영역은 총 9개의 카테고리로 구분하여 분석하였는데, 연구서비스와 연구데이터 관리서비스 연계, 국가/대학/기관 차원의 협약, 메타데이터 입력주체 및 필수 요소, 직원의 전문화 방안, 이용자 요구분석을 통한 주요서비스 영역 선정, 연구데이터와 연구결과물의 효과적인 연결방안, 이용자와 유관기관과 긴밀한 공조 등의 연구데이터 관리서비스 구축 시 고려사항을 도출할 수 있었다.

Abstract

The purpose of this study is to determine crucial factors of consideration in ensuring the successful implementation of research data management services. The study begins by extracting a range of service areas from their equivalent in existing research on data management services. It then collects relevant information via e-mail survey from eight individuals respectively overseeing research data management services at six university libraries and one institution located throughout the United States, Germany, and Australia. Having originated in overseas cases, the resulting factors of consideration were reviewed by domestic experts in research data management services. The finalized areas of research data management services consist of nine categories. The crucial factors of consideration in RDM services are connection between research services and research data management services; national/university-level/institutional agreements; metadata entry personnel and required elements; strategies for the provision of specialized staff; major service area selection through user demand analysis; effective linkage between research data and research results; and close cooperation with users and related organizations.

초록보기
초록

본 연구에서는 북미에서 연구데이터 관리 서비스를 제공하는 121개 대학도서관 중 연구데이터 관리 교육 프로그램을 제공하는 51개 기관을 대상으로 제공되는 교육 프로그램의 내용을 12개 데이터 리터러시 세부 역량에 기반을 두어 분석하고 시사점을 제시하는 것을 목적으로 하였다. 내용 분석을 위해 집합 교육 프로그램의 제목 317개와 온라인 튜토리얼의 상위 목차 제목 42개를 수집하였으며 선행연구에서 제시된 12개 데이터 리터러시 세부 역량에 따라 코딩을 수행하였다. 집합 교육 프로그램 중에서는 데이터 처리 및 분석 역량에 대한 교육 프로그램이 가장 많은 것으로 나타났으며, 가장 많은 수의 기관에서 데이터 관리 및 조직 역량에 대한 교육을 제공하고 있었다. 데이터 시각화 및 표현은 집합 교육 프로그램 중에서 세 번째로 많이 다루어지는 역량이었다. 그러나 나머지 9개 역량에 대한 교육 프로그램은 매우 적은 것으로 나타나 교육 프로그램 내용이 특정 역량에 집중되어 있음을 알 수 있다. 집합 교육 없이 자체 개발한 온라인 튜토리얼을 제공하는 기관은 5곳이었으며 목차 제목을 분석한 결과 데이터 보존, 윤리 및 데이터 인용, 데이터 관리 및 조직 역량에 대한 교육 내용을 중점적으로 다루고 있어 집합 교육 프로그램에서 강조되는 역량과 차이를 보였다. 효과적인 연구데이터 관리 교육 프로그램 운영을 위해서는 대학도서관 사서들이 전통적으로 교육하고 강조해왔던 역량뿐만 아니라 데이터 처리와 분석, 데이터 시각화와 표현 등 연구자들의 연구 결과 도출에 필요한 데이터 리터러시 세부 역량에 대한 이해와 지원이 요청된다. 또한 연구데이터 관리 서비스와 관련된 사서들의 계속 교육을 지원하는 교육 자원의 개발도 필요할 것이다.

Abstract

This study aimed to analyze the content of Records Data Management (RDM) training programs provided by 51 out of 121 university libraries in North America that implemented RDM services, and to provide implications from the results. For the content analysis, 317 titles of classroom training programs and 42 headings at the highest level from the tables of content of online tutorials were collected and coded based on 12 data literacy competencies identified from previous studies. Among classroom training programs, those regarding data processing and analysis competency were offered the most. The highest number of the libraries provided classroom training programs in relation to data management and organization competency. The third most classroom training programs dealt with data visualization and representation competency. However, each of the remaining 9 competencies was covered by only a few classroom training programs, and this implied that classroom training programs focused on the particular data literacy competencies. There were five university libraries that developed and provided their own online tutorials. The analysis of the headings showed that the competencies of data preservation, ethics and data citation, and data management and organization were mainly covered and the difference existed in the competencies stressed by the classroom training programs. For effective RDM training program, it is necessary to understand and support the education of data literacy competencies that researchers need to draw research results, in addition to competencies that university librarians traditionally have taught and emphasized. It is also needed to develop educational resources that support continuing education for the librarians involved in RDM services.

초록보기
초록

본 연구의 목적은 문헌정보학 중심의 인문학 기반 데이터 리터러시 개념과 세부 역량을 제안하는 것이다. 이를 위해 국내외 데이터, 정보, 디지털 리터러시 등의 관련 연구를 비교․분석하여 데이터 리터러시의 개념을 정의하고, 인문학 관련 개념으로 디지털 인문학 주요 개념을 연계하여 11개 항목의 인문학 기반 데이터 리터러시의 기본 요소를 설계하였다. 본 연구결과는 향후 데이터 리터러시 프레임워크 설계의 기초자료로 이용할 수 있을 것으로 기대된다.

Abstract

The purpose of this study is to suggest the concept of data literacy and its detailed competencies based on humanities focused on LIS. To do this, we define the concept of data literacy by comparing and analyzing researches related data literacy, data information literacy, and digital literacy in domestic and foreign. And we design the basic 11 elements of data literacy based on digital humanities concepts. The result of this study is expected to be used as a basic data when design henceforward data literacy framework.

초록보기
초록

본 연구의 목적은 빅데이터 연구 논문의 주제 분야 간의 연관관계를 분석하는데 있다. 동시 인용 관계를 적용하여 분석 대상의 주제 분야를 추출하였으며, R 프로그램의 Apriori 알고리즘을 이용하여 연관관계의 규칙을 분석하고, arulesViz 패키지를 사용하여 시각화하였다. 연구 결과 22개 주제 분야가 추출되었는데, 이들 주제 분야는 3가지 군집으로 구분되었다. 주제 분야의 연관관계 유형을 분석한 결과, 연관관계의 복잡성에 따라 ‘전문형’, ‘일반형’, ‘확대형’으로 구분되었다. 전문형에는 문헌정보학, 신문방송학 등이 포함되었고, 일반형에는 정치외교학, 무역학, 관광학 등이 포함되었고, 확대형에는 기타인문학, 사회과학일반, 관광학일반 등이 포함되었다. 이 연관관계는 빅데이터 연구자가 한 주제 분야를 인용할 때 관계가 있는 다른 주제 분야를 인용하는 경향을 보여주는 것으로, 도서관에서 학술정보서비스를 위해 연관관계를 활용한 서비스를 고려해야 할 필요가 있다.

Abstract

The purpose of this study is to analyze the association among the subject areas of big data research papers. The subject group of the units of analysis was extracted by applying co-citation networks, and the rules of association were analyzed using Apriori algorithm of R program, and visualized using the arulesViz package of R program. As a result of the study, 22 subject areas were extracted and these subjects were divided into three clusters. As a result of analyzing the association type of the subject, it was classified into ‘professional type’, ‘general type’, ‘expanded type’ depending on the complexity of association. The professional type included library and information science and journalism. The general type included politics & diplomacy, trade, and tourism. The expanded types included other humanities, general social sciences, and general tourism. This association networks show a tendency to cite other subject areas that are relevant when citing a subject field, and the library should consider services that use the association for academic information services.

5
노영희(건국대학교) ; 오의경(상명대학교) ; 정대근(전남대학교 문헌정보학과) 2018, Vol.35, No.2, pp.7-36 https://doi.org/10.3743/KOSIM.2018.35.2.007
초록보기
초록

본 연구는 기초학문자료센터가 인문자산 원스톱(One-Stop) 포털 서비스 구축에 있어 효과적인 데이터연계 방향성 제안을 목적으로 하였다. 이를 위해 인문자산을 보유한 국내 기관에 대한 현황을 수집하고 분석하였으며, 대상 기관이 보유한 데이터 분석을 통해 연계 방향성을 제시하였다. 본 연구에서는 첫째, 인문자산의 주제에 대하여 기존 분류체계 검토를 기반으로 인문자산의 분류체계를 제안하였다. 둘째, 조사 대상기관이 보유하고 있는 데이터의 주제와 유형에 대한 구체적인 분석을 통해 인문자산으로 편입될 수 있는 잠재적 데이터의 범주를 설정하였다. 셋째, 인문자산 원스톱 포털 서비스를 제공하고 있는 유사사례 기관의 플랫폼을 분석하였으며, 유사성을 중심으로 원스톱 시스템 구축 시, 적용 가능한 메타필드를 제시하였다.

Abstract

The purpose of this study is to propose an effective direction of data linkage for building the humanities assets one-stop portal service. For this purpose, We collected and analyzed the actual status of the domestic institution with humanities assets, and presented the linkage direction through analysis of the data held by the target organization. The results of this study are as follows: First, we proposed a classification system of humanities assets based on the reviewing the existing classification system on the subject of humanities assets. Second, we set up the categories of potential data that can be incorporated into humanities assets through a detailed analysis of the subject and type of data held by the subject institutions. Third, we analyzed the platforms of similar case organizations providing one-stop portal services for humanities assets and proposed the applicable meta fields when constructing one-stop system based on similarity.

초록보기
초록

빅 데이터 시대에 접어들면서 저장 기술과 처리 기술이 급속도로 발전함에 따라, 과거에는 간과되었던 롱테일(long tail) 데이터가 많은 기업과 연구자들에게 관심의 대상이 되고 있다. 본 연구는 롱테일 법칙의 영역에 존재하는 데이터의 활용률을 높이기 위해 텍스트 마이닝 기반의 기술 용어 네트워크 생성 및 통제 기법을 제안한다. 특히 텍스트 마이닝의 편집 거리(edit distance) 기법을 이용해 학문 분야에서 사용되는 기술 용어의 상호 네트워크를 자동으로 생성하는 효과적인 방안을 제시하였다. 데이터의 활용률 향상 실험을 위한 데이터 수집을 위해 LOD(linked open data) 환경을 이용하였으며, 이 과정에서 효과적으로 LOD 시스템의 데이터를 활용하는 기법과 용어의 패턴 처리 알고리즘을 제안하였다. 마지막으로, 생성된 기술 용어 네트워크의 성능 측정을 통해 제안한 기법이 롱테일 데이터의 활용률 제고에 효과적이었음을 확인하였다.

Abstract

As data management and processing techniques have been developed rapidly in the era of big data, nowadays a lot of business companies and researchers have been interested in long tail data which were ignored in the past. This study proposes methods for generating and controlling a network of technical terms based on text mining technique to enhance data utilization in the distribution of long tail theory. Especially, an edit distance technique of text mining has given us efficient methods to automatically create an interlinking network of technical terms in the scholarly field. We have also used linked open data system to gather experimental data to improve data utilization and proposed effective methods to use data of LOD systems and algorithm to recognize patterns of terms. Finally, the performance evaluation test of the network of technical terms has shown that the proposed methods were useful to enhance the rate of data utilization.

초록보기
초록

본 연구는 최근 열린 정부 데이터에 대한 다차원 척도, 모델 개발 연구가 시작되고 있으나, 도서관에서는 관련 연구가 부족하다는 점을 고려하여 도서관에 적용할 수 있는 오픈 데이터 품질측정 모델개발을 목적으로 하였다. 본 연구는 모델개발과 모델평가 두 단계로 수행하였다. 모델개발은 델파이 기법을 적용하였으며, 모델평가는 도서관 오픈 데이터 이용자를 대상으로 설문조사를 실시하여 모델의 타당도와 신뢰도를 측정하였다. 모델개발은 델파이 기법을 적용하여 총 4차례 수행하여 3개 차원, 18개 요인, 133개 측정요소로 구성된 모델을 도출하였다. 모델평가는 델파이 기법으로 완성한 모델을 도서관 오픈 데이터 이용자인 국내․외 사서, 개발자, 오픈 데이터 활동가를 대상으로 적합성 설문조사를 실시하여 모델의 타당도와 신뢰도를 검증하였다. 그 결과 당초 18개 요인, 133개 측정요소는 15개 요인, 54개 측정요소가 타당성을 확보한 것으로 나타났다. 신뢰도는 차원별, 측정요인별로 모두 기준치인 0.6 이상의 결과를 보여주고 있어 높은 신뢰도를 확보한 것으로 나타났다. 모델평가를 통한 이용자 타당도, 신뢰도 분석으로 전문가가 구성한 평가모델은 현장에서 즉시 활용될 수 있을 정도로 정제되었다.

Abstract

This study draws on the current momentum to diversify open government data research through multidimensional scaling and model development. It formulates a quality assessment model applicable to library open data, taking into consideration the paucity of such research in the field. The model was developed using the Delphi method and verified for validity and reliability on the basis of a survey administered to library open data users. The results of the fourth round exhibited an average of 4.00 for all measured elements and a minimum validity of .75, rendering the model appropriate for use in quality assessments of library open data. The convergence and stability results provided by the expert panel fell below .50, confirming that there was no need to conduct further surveys in order to establish the validity of the Delphi method. The model's reliability likewise garnered results of .60 and above in all three dimensions. This Model completed with the input of the Delphi panel was put through a verification process in which library open data users such as domestic and international librarians, developers, and open data activists reviewed the model for validity and reliability. The model scored low on validity on account of its failure to load all measure factors and elements pertaining to the three dimensions. Reliability results, on the other hand, were at 0.6 and above for all dimensions and measured elements.

초록보기
초록

대출데이터는 대학도서관에 축적된 중요한 데이터로서 도서관 장서개발이나 서비스 개선에 활용될 수 있는 중요한 데이터이다. 이 연구는 대출빈도를 기반으로 한 다양한 대출관련지수를 비교분석하여 지수별 특성을 파악한 후 도서관 운영에 적용할 수 있는 타당성을 평가하고자 하였다. A 대학도서관의 10개 단과대학별 대출데이터를 대상으로 비교분석한 지수는 대출빈도, 대출엔트로피, 대출 h-지수, 대출주제차별지수 등 총 4개의 지수이다. 이 지수들을 적용하여 단과대학별 대출현황을 분석하였고 단과대학별로 나타나는 대출주제의 특성을 표하는 각 지수의 특성을 비교 분석하였다. 분석 결과 대출 엔트로피는 여러 대학이 공통으로 선호하는 주제를 표현하는 성향이 있는 것으로 나타났다. 반면 대출주제차별지수는 특정대학에서만 특화되어 대출되는 주제를 표현하는 성향이 있는 것으로 나타났다.

Abstract

Circulation data is a key data set of academic libraries in terms of collection development and service improvement This study aims to identify the characteristics of circulation measures and their feasibility. This study collected the circulation data of 10 colleges in a university and analyzed 4 measures based on the circulation data: circulation frequency, circulation entropy, circulation h-index, and circulation divergence. These measures are to present the circulation topics of each college. This study identified that circulation entropy tends to present general topics which are popular for many colleges, but circulation divergence tends to present specific topics which are preferred by a specific college.

9
정도헌(덕성여자대학교) ; 주황수(덕성여자대학교) 2018, Vol.35, No.3, pp.77-100 https://doi.org/10.3743/KOSIM.2018.35.3.077
초록보기
초록

본 연구는 텍스트 마이닝 기법을 활용하여 대량의 데이터로부터 학제 간 융합 기술을 발굴하는 일련의 과정을 제시하는 것을 목표로 한다. 바이오공학 기술(BT) 분야와 정보통신 기술(ICT) 분야 간의 융합 연구를 위해 (1) BT 분야의 기술용어 목록을 작성하여 대량의 학술논문 메타데이터를 수집한 후 (2) 패스파인더 네트워크 척도 알고리즘을 이용해 유망 기술의 지식 구조를 생성하고 (3) 토픽 모델링 기법을 사용하여 BT분야 중심의 내용 분석을 수행하였다. 다음 단계인 BT-ICT 융합 기술 아이템 도출을 위해, (4) BT-ICT 관련 정보를 얻기 위해 BT 기술용어 목록을 상위 개념으로 확장한 후 (5) OpenAPI 서비스를 이용하여 두 분야가 관련된 학술 정보의 메타데이터를 자동 수집하여 (6) BT-ICT 토픽 모델의 내용 분석을 실시하였다. 연구를 통해 첫째, 융합 기술의 발굴을 위해서는 기술 용어 목록의 작성이 중요한 지식 베이스가 된다는 점과 둘째, 대량의 수집 문헌을 분석하기 위해서는 데이터의 차원을 줄여 분석을 용이하게 해주는 텍스트 마이닝 기법이 필요하다는 점을 확인하였다. 본 연구에서 제안한 데이터 처리 및 분석 과정이 학제 간 융합 연구의 가능성이 있는 기술 요소들을 발굴하는 데 효과적이었음을 확인할 수 있었다.

Abstract

The objectives of this study is to present a discovering process of interdisciplinary convergence technology using text mining of big data. For the convergence research of biotechnology(BT) and information communications technology (ICT), the following processes were performed. (1) Collecting sufficient meta data of research articles based on BT terminology list. (2) Generating intellectual structure of emerging technologies by using a Pathfinder network scaling algorithm. (3) Analyzing contents with topic modeling. Next three steps were also used to derive items of BT-ICT convergence technology. (4) Expanding BT terminology list into superior concepts of technology to obtain ICT-related information from BT. (5) Automatically collecting meta data of research articles of two fields by using OpenAPI service. (6) Analyzing contents of BT-ICT topic models. Our study proclaims the following findings. Firstly, terminology list can be an important knowledge base for discovering convergence technologies. Secondly, the analysis of a large quantity of literature requires text mining that facilitates the analysis by reducing the dimension of the data. The methodology we suggest here to process and analyze data is efficient to discover technologies with high possibility of interdisciplinary convergence.

10
오삼균(성균관대학교 문헌정보학과) ; 한상은(성균관대학교 문헌정보학과) ; 손태익(성균관대학교 학술정보관) ; 김성훈(성균관대학교 문헌정보학과) 2018, Vol.35, No.3, pp.165-187 https://doi.org/10.3743/KOSIM.2018.35.3.165
초록보기
초록

전거데이터 공동구축을 목표로 하는 많은 국내 연구가 시행되었음에도 불구하고 국가전거구축의 협업 환경은 표준 전거의 제정, 표준 전거 구축원칙의 제정, 기존 전거구축 기관의 업무 개편, 공동구축 업무의 핵심기관 선정 등과 같은 전제 조건의 미비로 인해 그 실질적 조성이 막혀 있다. 국가전거를 공동으로 구축하고 원활하게 활용하기 위해서는 기존 전거구축기관의 업무에 지장을 초래하지 않는 현실적 협업 방안과 지속적 추진력을 보유한 국가기관의 참여와 아울러 다수 기관의 데이터 병합을 가능케 하는 표준식별체계가 요구된다. 본 연구의 목적은 국가전거의 공동 구축을 위한 여건 조성에 있어서 필수사항이 무엇인가를 문헌조사로 밝히고, 시맨틱웹 기반으로 구축되어 상호운용성이 우수한 VIVO 온톨로지 모델의 활용을 통해 구현 가능한 국가전거 구축모델을 제시하는 것이다.

Abstract

Despite repeated efforts to develop a methodological foundation for assembling collaborative authority data in South Korea, issues such as the establishment of a standard authority model and standard authority construction as well as the reconfiguration of existing entities in authority building have prevented such research from generating a cooperative push for nation-wide authority data and progressing toward concrete implementation. The formulation of a collaborative and well-utilized collection of national authority data accordingly calls for 1) a practical approach to supporting both established authority data contributors and newly organized avenues of mutual participation in authority building, 2) committed involvement on the part of national institutions capable of providing the project with sustained assistance, and 3) a standard identification system which allows multiple organizations to merge their data. This study addresses the challenges of the current environment by taking stock of the key components necessary for the creation of collaborative authority data and using a Semantic Web-based interoperable VIVO ontology model to propose a viable national authority data framework.

정보관리학회지