바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: organization of information, 검색결과: 2
초록보기
초록

가치 있는 디지털 정보자원으로서 연구정보를 위한 보존 메타데이터 요소를 개발하였다. 특히 국가정책지식 생산의 주역이라고 할 수 있는 경제․인문사회 분야 정부출연연구기관의 연구정보를 장기적으로 보존하여 활용할 수 있는 기반으로서 보존 메타데이터 요소를 개발하였다. 다양한 부서와 기관에서 분산 관리되고 있는 연구정보의 상호운용성을 확보하기 위하여 OAIS 참조모형을 기반으로 유럽표준인 CERIF와 PREMIS 데이터 사전의 요소들을 비교 분석한 다음, 양자의 특성을 반영하여 상호보완적인 보존 메타데이터 요소를 개발하였다. 그 결과로서 개념적 차원이 아닌 실제 구현이 가능하고 시스템 간의 호환성이 전제된 연구정보 보존 메타데이터 요소들과 적용사례를 제시하였다.

Abstract

This study aimed at developing preservation metadata elements and its applications for research information which is considered as a valuable digital resource these days. Specifically, the developed preservation metadata intends to provide a basis for the research information of the government-funded research institutes in economic and social science fields which are major knowledge producers of national policy. To ensure the interoperability of the research information across various departments and organizations, this study compared the elements from the CERIF(European Standard) and those from the PREMIS Data Dictionary which is based on OAIS reference model (ISO 14721). Based on this comparative analysis, this study developed complementary preservation metadata elements based on the two standards’ characteristics. Consequently, this study suggested a new preservation metadata elements and its applications that are compatible between the two systems and can be implemented in practice.

초록보기
초록

학술지 논문에 디스크립터를 자동부여하기 위하여 기계학습 기반의 접근법을 적용하였다. 정보학 분야의 핵심 학술지를 선정하여 지난 11년간 수록된 논문들을 대상으로 문헌집단을 구성하였고, 자질 선정과 학습집합의 크기에 따른 성능을 살펴보았다. 자질 선정에서는 카이제곱 통계량(CHI)과 고빈도 선호 자질 선정 기준들(COS, GSS, JAC)을 사용하여 자질을 축소한 다음, 지지벡터기계(SVM)로 학습한 결과가 가장 좋은 성능을 보였다. 학습집합의 크기에서는 지지벡터기계(SVM)와 투표형 퍼셉트론(VPT)의 경우에는 상당한 영향을 받지만 나이브 베이즈(NB)의 경우에는 거의 영향을 받지 않는 것으로 나타났다.

Abstract

This study utilizes various approaches of machine learning in the process of automatically assigning descriptors to journal articles. After selecting core journals in the field of information science and organizing test collection from the articles of the past 11 years, the effectiveness of feature selection and the size of training set was examined. In the regard of feature selection, after reducing the feature set by χ2 statistics(CHI) and criteria which prefer high-frequency features(COS, GSS, JAC), the trained Support Vector Machines(SVM) performs the best. With respective to the size of the training set, it significantly influences the performance of Support Vector Machines(SVM) and Voted Perceptron(VTP). but it scarcely affects that of Naive Bayes(NB).

정보관리학회지