바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 재현율, 검색결과: 2
1
양동민(전북대학교 기록관리학과) ; 최광훈(알엠소프트) ; 김지혜(전북대학교 기록관리학과 박사과정) ; 유남희(전북대학교 기록관리학과) 2023, Vol.40, No.4, pp.167-200 https://doi.org/10.3743/KOSIM.2023.40.4.167
초록보기
초록

국내 행정정보 데이터세트 기록관리에서는 행정정보 데이터세트를 이관할 때 이관규격으로 SIARD를 활용할 것을 권고하고 있다. 그러나 행정정보 데이터세트의 기록관리 단위, SIARD를 지원하는 도구의 기술적 한계, 공공기관의 현실적인 상황 등으로 인해 SIARD 적용이 적합하지 않은 경우가 다수 발생하고 있다. 본 연구에서는 SIARD 이외에 행정정보 데이터세트의 이관규격을 다양화하는 방안을 제안하고자 한다. 행정정보 데이터세트의 기록관리에서는 데이터세트와 연계된 사용자 인터페이스의 재현에 대한 필요성에 대한 논의는 지속되고 있지만 구체적으로 제시되고 있지 않다. 본 연구에서는 필수보존속성(Significant Properties) 관점에서 사용자 인터페이스도 함께 보존되어야 할 속성임을 확인하고, 사용자 인터페이스를 효과적으로 재현하는 방안을 제시하고, 실제 검증한 사례를 제공하고자 한다.

Abstract

For the record management of administrative information datasets in Korea, it is recommended to utilize SIARD as a transfer specification when transferring administrative information datasets. However, there are many cases where the application of SIARD is not suitable due to the record management unit of administrative information datasets, technical limitations of tools that support SIARD, and the realistic situation of public institutions. In this study, we propose a plan to diversify the transfer specifications of administrative information datasets other than SIARD. In the record management of administrative information datasets, the need to reproduce the user interface associated with the dataset has been discussed but not specifically presented. This study confirms that the user interface is a property to be preserved from the perspective of Significant Properties, proposes a method to effectively reproduce the user interface, and provides an example of actual verification.

초록보기
초록

이 연구는 짧은 텍스트인 서명에 단어 임베딩이 미치는 영향을 분석하기 위해 Word2vec, GloVe, fastText 모형을 이용하여 단행본 서명을 임베딩 벡터로 생성하고, 이를 분류자질로 활용하여 자동분류에 적용하였다. 분류기는 k-최근접 이웃(kNN) 알고리즘을 사용하였고 자동분류의 범주는 도서관에서 도서에 부여한 DDC 300대 강목을 기준으로 하였다. 서명에 대한 단어 임베딩을 적용한 자동분류 실험 결과, Word2vec와 fastText의 Skip-gram 모형이 TF-IDF 자질보다 kNN 분류기의 자동분류 성능에서 더 우수한 결과를 보였다. 세 모형의 다양한 하이퍼파라미터 최적화 실험에서는 fastText의 Skip-gram 모형이 전반적으로 우수한 성능을 나타냈다. 특히, 이 모형의 하이퍼파라미터로는 계층적 소프트맥스와 더 큰 임베딩 차원을 사용할수록 성능이 향상되었다. 성능 측면에서 fastText는 n-gram 방식을 사용하여 하부문자열 또는 하위단어에 대한 임베딩을 생성할 수 있어 재현율을 높이는 것으로 나타났다. 반면에 Word2vec의 Skip-gram 모형은 주로 낮은 차원(크기 300)과 작은 네거티브 샘플링 크기(3이나 5)에서 우수한 성능을 보였다.

Abstract

To analyze the impact of word embedding on book titles, this study utilized word embedding models (Word2vec, GloVe, fastText) to generate embedding vectors from book titles. These vectors were then used as classification features for automatic classification. The classifier utilized the k-nearest neighbors (kNN) algorithm, with the categories for automatic classification based on the DDC (Dewey Decimal Classification) main class 300 assigned by libraries to books. In the automatic classification experiment applying word embeddings to book titles, the Skip-gram architectures of Word2vec and fastText showed better results in the automatic classification performance of the kNN classifier compared to the TF-IDF features. In the optimization of various hyperparameters across the three models, the Skip-gram architecture of the fastText model demonstrated overall good performance. Specifically, better performance was observed when using hierarchical softmax and larger embedding dimensions as hyperparameters in this model. From a performance perspective, fastText can generate embeddings for substrings or subwords using the n-gram method, which has been shown to increase recall. The Skip-gram architecture of the Word2vec model generally showed good performance at low dimensions(size 300) and with small sizes of negative sampling (3 or 5).

정보관리학회지