바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 활용도, 검색결과: 4
1
이혜경(경북대학교 문헌정보학과) ; 이용구(경북대학교) 2023, Vol.40, No.2, pp.157-182 https://doi.org/10.3743/KOSIM.2023.40.2.157
초록보기
초록

이 연구는 국립중앙도서관에서 개발한 주제명표목표의 구성 현황과 2003년부터 2022년까지 국가서지 1,218,867건에 부여된 주제명의 현황을 분석하였다. 그 결과 첫째, 주제명표목표의 전체 주제명 중 우선어는 257,103개로 전체 용어의 50.2% 이상이었으며, 외국어가 169,466개(33.1%), 비우선어가 61,442개(12.0%) 등으로 구성되었다. 우선어 중에 활용된 주제명은 57,312종으로 22.3%에 해당하며 이 중 54.7%인 31,351종의 주제명은 부여횟수 5회 미만으로, 전체 중에서 적은 수의 주제명만을 활용하고 있음을 파악하였다. 둘째, 관계지시기호의 빈도는 RT, BT, NT 순으로 나타났으며, 최상위 주제명은 12,602종, 최하위 주제명은 143,704종이었고 최대 심도는 17수준이었다. 셋째, 서지 당 평균 1.72회의 주제명이 부여되었으며, 자료의 내용이 특정적일수록 주제명 부여 횟수가 많아지고 심도도 깊어지는 경향을 보였다. 그리고 최근에 입력한 서지일수록 부여된 주제명 수가 증가하였고 심도도 깊어졌으나, KDC 주류에 따라 서지 당 부여된 주제명 수는 편차가 있는 것으로 나타났다. 현황 분석을 통해 결과적으로 주제명표목표가 수록한 용어의 범위에 대한 평가와 주제명의 계층 관계 및 심도의 재정비가 요구되며, 주제명표목표의 세목 개발을 통한 개선이 필요한 것으로 판단하였다.

Abstract

This study analyzed the structure and utilization of subject headings in the National Library of Korea Subject Headings List (NLSH) based on an analysis of subject headings assigned to 1,218,867 national bibliographies from 2003 to 2022. The findings of the study are as follows: Firstly, among all subject headings in the NLSH, there were 257,103 preferred terms, accounting for 50.2% of the total terms. Foreign language terms constituted 33% (169,466), while non-preferred terms comprised 12% (61,442). Among the preferred terms, 57,312 subject headings were used, accounting for 22.3%. However, it was observed that 54.7% (31,351) of these subject headings were assigned less than 5 times, indicating that only a small number of subject headings were frequently utilized. Secondly, the frequency of relationship indicators appeared in the order of RT, BT, and NT. The NLSH consisted of 12,602 top-level subject headings and 143,704 lowest-level subject headings, with a maximum depth of 17 levels. Thirdly, on average, 1.72 subject headings were assigned per bibliographic record. The number of subject headings assigned and the depth of the hierarchy increased for materials with more specific contents. Recent bibliographic records have been assigned more subject headings and deeper into the hierarchy of the NLSH. It was also found that the number of subject headings assigned per bibliography varied depending on the main class of KDC. Based on the findings, it is recommended to evaluate the coverage of terms in the NLSH, reorganize hierarchical relationships and depth of subject headings, and enhance the development of subdivisions within the NLSH.

2
이혜경(대구가톨릭대학교 문헌정보학과 강사) ; 이용구(경북대학교 문헌정보학과) 2023, Vol.40, No.4, pp.429-450 https://doi.org/10.3743/KOSIM.2023.40.4.429
초록보기
초록

본 연구의 목적은 오픈 데이터 관련 연구의 최근 동향과 지적 구조를 고찰하는 것이다. 이를 위하여 본 연구는 Scopus에서 저자 키워드로 ‘open data’를 검색하여 1999년부터 2023년까지 총 6,543건의 논문을 수집하였으며, 데이터 전처리 이후 5,589편 논문의 저자 키워드를 대상으로 오픈 데이터 관련 연구 분야 및 링크드 오픈 데이터 관련 연구 분야의 중심성 도출과 네트워크 분석을 수행하였다. 그 결과, 오픈 데이터 관련 연구에서는 ‘big data’가 가장 높은 중심성을 보였으며, 주로 공공데이터 개념의 오픈 데이터로서의 활용 및 정책 적용 연구, 빅데이터와의 연관개념으로서의 오픈 데이터를 활용한 데이터 분석에 관한 연구, 오픈 데이터의 재생산이나 활용 및 접근과 같은 오픈 데이터의 이용과 관련한 주제의 연구가 이뤄지고 있음이 나타났다. 그리고 링크드 오픈 데이터 관련 연구는 삼각매개중심성 및 최근접이웃중심성에서 모두 ‘semantic web’이 가장 높은 것으로 나타났으며, 정부 정책의 공공데이터보다 데이터 연계와 관계 형성을 중점으로 한 연구가 많이 수행된 것으로 나타났다.

Abstract

The purpose of this study is to examine recent trends and intellectual structures in research related to open data. To achieve this, the study conducted a search for the keyword “open data” in Scopus and collected a total of 6,543 papers from 1999 to 2023. After data preprocessing, the study focused on the author keywords of 5,589 papers to perform network analysis and derive centrality in the field of open data research and linked open data research. As a result, the study found that “big data” exhibited the highest centrality in research related to open data. The research in this area mainly focuses on the utilization of open data as a concept of public data, studies on the application of open data in analysis related to big data as an associated concept, and research on topics related to the use of open data, such as the reproduction, utilization, and access of open data. In linked open data research, both triadic centrality and closeness centrality showed that “the semantic web” had the highest centrality. Moreover, it was observed that research emphasizing data linkage and relationship formation, rather than public data policies, was more prevalent in this field.

초록보기
초록

이 연구는 짧은 텍스트인 서명에 단어 임베딩이 미치는 영향을 분석하기 위해 Word2vec, GloVe, fastText 모형을 이용하여 단행본 서명을 임베딩 벡터로 생성하고, 이를 분류자질로 활용하여 자동분류에 적용하였다. 분류기는 k-최근접 이웃(kNN) 알고리즘을 사용하였고 자동분류의 범주는 도서관에서 도서에 부여한 DDC 300대 강목을 기준으로 하였다. 서명에 대한 단어 임베딩을 적용한 자동분류 실험 결과, Word2vec와 fastText의 Skip-gram 모형이 TF-IDF 자질보다 kNN 분류기의 자동분류 성능에서 더 우수한 결과를 보였다. 세 모형의 다양한 하이퍼파라미터 최적화 실험에서는 fastText의 Skip-gram 모형이 전반적으로 우수한 성능을 나타냈다. 특히, 이 모형의 하이퍼파라미터로는 계층적 소프트맥스와 더 큰 임베딩 차원을 사용할수록 성능이 향상되었다. 성능 측면에서 fastText는 n-gram 방식을 사용하여 하부문자열 또는 하위단어에 대한 임베딩을 생성할 수 있어 재현율을 높이는 것으로 나타났다. 반면에 Word2vec의 Skip-gram 모형은 주로 낮은 차원(크기 300)과 작은 네거티브 샘플링 크기(3이나 5)에서 우수한 성능을 보였다.

Abstract

To analyze the impact of word embedding on book titles, this study utilized word embedding models (Word2vec, GloVe, fastText) to generate embedding vectors from book titles. These vectors were then used as classification features for automatic classification. The classifier utilized the k-nearest neighbors (kNN) algorithm, with the categories for automatic classification based on the DDC (Dewey Decimal Classification) main class 300 assigned by libraries to books. In the automatic classification experiment applying word embeddings to book titles, the Skip-gram architectures of Word2vec and fastText showed better results in the automatic classification performance of the kNN classifier compared to the TF-IDF features. In the optimization of various hyperparameters across the three models, the Skip-gram architecture of the fastText model demonstrated overall good performance. Specifically, better performance was observed when using hierarchical softmax and larger embedding dimensions as hyperparameters in this model. From a performance perspective, fastText can generate embeddings for substrings or subwords using the n-gram method, which has been shown to increase recall. The Skip-gram architecture of the Word2vec model generally showed good performance at low dimensions(size 300) and with small sizes of negative sampling (3 or 5).

4
김선욱(경북대학교 사회과학대학 문헌정보학과) ; 이혜경(경북대학교 문헌정보학과) ; 이용구(경북대학교) 2023, Vol.40, No.2, pp.183-209 https://doi.org/10.3743/KOSIM.2023.40.2.183
초록보기
초록

이 연구의 목적은 ChatGPT가 도서의 표지, 표제지, 판권기 데이터를 활용하여 생성한 더블린코어의 품질 평가를 통하여 ChatGPT의 메타데이터의 생성 능력과 그 가능성을 확인하는 데 있다. 이를 위하여 90건의 도서의 표지, 표제지와 판권기 데이터를 수집하여 ChatGPT에 입력하고 더블린 코어를 생성하게 하였으며, 산출물에 대해 완전성과 정확성 척도로 성능을 파악하였다. 그 결과, 전체 데이터에 있어 완전성은 0.87, 정확성은 0.71로 준수한 수준이었다. 요소별로 성능을 보면 Title, Creator, Publisher, Date, Identifier, Right, Language 요소가 다른 요소에 비해 상대적으로 높은 성능을 보였다. Subject와 Description 요소는 완전성과 정확성에 대해 다소 낮은 성능을 보였으나, 이들 요소에서 ChatGPT의 장점으로 알려진 생성 능력을 확인할 수 있었다. 한편, DDC 주류인 사회과학과 기술과학 분야에서 Contributor 요소의 정확성이 다소 낮았는데, 이는 ChatGPT의 책임표시사항 추출 오류 및 데이터 자체에서 메타데이터 요소용 서지 기술 내용의 누락, ChatGPT가 지닌 영어 위주의 학습데이터 구성 등에 따른 것으로 판단하였다.

Abstract

The purpose of this study is to evaluate the Dublin Core metadata generated by ChatGPT using book covers, title pages, and colophons from a collection of books. To achieve this, we collected book covers, title pages, and colophons from 90 books and inputted them into ChatGPT to generate Dublin Core metadata. The performance was evaluated in terms of completeness and accuracy. The overall results showed a satisfactory level of completeness at 0.87 and accuracy at 0.71. Among the individual elements, Title, Creator, Publisher, Date, Identifier, Rights, and Language exhibited higher performance. Subject and Description elements showed relatively lower performance in terms of completeness and accuracy, but it confirmed the generation capability known as the inherent strength of ChatGPT. On the other hand, books in the sections of social sciences and technology of DDC showed slightly lower accuracy in the Contributor element. This was attributed to ChatGPT’s attribution extraction errors, omissions in the original bibliographic description contents for metadata, and the language composition of the training data used by ChatGPT.

정보관리학회지