바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: small library, 검색결과: 2
1
이혜경(경북대학교 문헌정보학과) ; 이용구(경북대학교) 2023, Vol.40, No.2, pp.157-182 https://doi.org/10.3743/KOSIM.2023.40.2.157
초록보기
초록

이 연구는 국립중앙도서관에서 개발한 주제명표목표의 구성 현황과 2003년부터 2022년까지 국가서지 1,218,867건에 부여된 주제명의 현황을 분석하였다. 그 결과 첫째, 주제명표목표의 전체 주제명 중 우선어는 257,103개로 전체 용어의 50.2% 이상이었으며, 외국어가 169,466개(33.1%), 비우선어가 61,442개(12.0%) 등으로 구성되었다. 우선어 중에 활용된 주제명은 57,312종으로 22.3%에 해당하며 이 중 54.7%인 31,351종의 주제명은 부여횟수 5회 미만으로, 전체 중에서 적은 수의 주제명만을 활용하고 있음을 파악하였다. 둘째, 관계지시기호의 빈도는 RT, BT, NT 순으로 나타났으며, 최상위 주제명은 12,602종, 최하위 주제명은 143,704종이었고 최대 심도는 17수준이었다. 셋째, 서지 당 평균 1.72회의 주제명이 부여되었으며, 자료의 내용이 특정적일수록 주제명 부여 횟수가 많아지고 심도도 깊어지는 경향을 보였다. 그리고 최근에 입력한 서지일수록 부여된 주제명 수가 증가하였고 심도도 깊어졌으나, KDC 주류에 따라 서지 당 부여된 주제명 수는 편차가 있는 것으로 나타났다. 현황 분석을 통해 결과적으로 주제명표목표가 수록한 용어의 범위에 대한 평가와 주제명의 계층 관계 및 심도의 재정비가 요구되며, 주제명표목표의 세목 개발을 통한 개선이 필요한 것으로 판단하였다.

Abstract

This study analyzed the structure and utilization of subject headings in the National Library of Korea Subject Headings List (NLSH) based on an analysis of subject headings assigned to 1,218,867 national bibliographies from 2003 to 2022. The findings of the study are as follows: Firstly, among all subject headings in the NLSH, there were 257,103 preferred terms, accounting for 50.2% of the total terms. Foreign language terms constituted 33% (169,466), while non-preferred terms comprised 12% (61,442). Among the preferred terms, 57,312 subject headings were used, accounting for 22.3%. However, it was observed that 54.7% (31,351) of these subject headings were assigned less than 5 times, indicating that only a small number of subject headings were frequently utilized. Secondly, the frequency of relationship indicators appeared in the order of RT, BT, and NT. The NLSH consisted of 12,602 top-level subject headings and 143,704 lowest-level subject headings, with a maximum depth of 17 levels. Thirdly, on average, 1.72 subject headings were assigned per bibliographic record. The number of subject headings assigned and the depth of the hierarchy increased for materials with more specific contents. Recent bibliographic records have been assigned more subject headings and deeper into the hierarchy of the NLSH. It was also found that the number of subject headings assigned per bibliography varied depending on the main class of KDC. Based on the findings, it is recommended to evaluate the coverage of terms in the NLSH, reorganize hierarchical relationships and depth of subject headings, and enhance the development of subdivisions within the NLSH.

초록보기
초록

이 연구는 짧은 텍스트인 서명에 단어 임베딩이 미치는 영향을 분석하기 위해 Word2vec, GloVe, fastText 모형을 이용하여 단행본 서명을 임베딩 벡터로 생성하고, 이를 분류자질로 활용하여 자동분류에 적용하였다. 분류기는 k-최근접 이웃(kNN) 알고리즘을 사용하였고 자동분류의 범주는 도서관에서 도서에 부여한 DDC 300대 강목을 기준으로 하였다. 서명에 대한 단어 임베딩을 적용한 자동분류 실험 결과, Word2vec와 fastText의 Skip-gram 모형이 TF-IDF 자질보다 kNN 분류기의 자동분류 성능에서 더 우수한 결과를 보였다. 세 모형의 다양한 하이퍼파라미터 최적화 실험에서는 fastText의 Skip-gram 모형이 전반적으로 우수한 성능을 나타냈다. 특히, 이 모형의 하이퍼파라미터로는 계층적 소프트맥스와 더 큰 임베딩 차원을 사용할수록 성능이 향상되었다. 성능 측면에서 fastText는 n-gram 방식을 사용하여 하부문자열 또는 하위단어에 대한 임베딩을 생성할 수 있어 재현율을 높이는 것으로 나타났다. 반면에 Word2vec의 Skip-gram 모형은 주로 낮은 차원(크기 300)과 작은 네거티브 샘플링 크기(3이나 5)에서 우수한 성능을 보였다.

Abstract

To analyze the impact of word embedding on book titles, this study utilized word embedding models (Word2vec, GloVe, fastText) to generate embedding vectors from book titles. These vectors were then used as classification features for automatic classification. The classifier utilized the k-nearest neighbors (kNN) algorithm, with the categories for automatic classification based on the DDC (Dewey Decimal Classification) main class 300 assigned by libraries to books. In the automatic classification experiment applying word embeddings to book titles, the Skip-gram architectures of Word2vec and fastText showed better results in the automatic classification performance of the kNN classifier compared to the TF-IDF features. In the optimization of various hyperparameters across the three models, the Skip-gram architecture of the fastText model demonstrated overall good performance. Specifically, better performance was observed when using hierarchical softmax and larger embedding dimensions as hyperparameters in this model. From a performance perspective, fastText can generate embeddings for substrings or subwords using the n-gram method, which has been shown to increase recall. The Skip-gram architecture of the Word2vec model generally showed good performance at low dimensions(size 300) and with small sizes of negative sampling (3 or 5).

정보관리학회지