바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 최적화, 검색결과: 32
21
윤희윤(대구대학교 문헌정보학과) ; 김종애(경기대학교 문헌정보학과) ; 오선경(경상대학교) 2020, Vol.37, No.3, pp.51-75 https://doi.org/10.3743/KOSIM.2020.37.3.051
초록보기
초록

모든 공공도서관은 장서 기반의 지식문화서비스 기관이다. 이를 위해 가장 먼저 수립해야 할 필수적 정책인 동시에 전략적 메뉴가 장서개발정책이다. 특히 시도 단위의 종합지식정보센터 및 공동보존서고로서의 법정 업무를 수행해야 할 지역대표도서관은 최적 장서개발정책을 수립․적용해야 한다. 본 연구는 주요 선진국의 대도시 공공도서관 장서개발정책과 국내의 권역별 지역대표도서관 장서개발지침(안) 및 규정을 분석하였다. 그 결과, 대다수 선진국의 정책은 구성체계 및 내용적 측면에서 충실한 반면에 국내는 공식화된 정책문서가 없는 실무지침에 불과하였다. 따라서 모든 지역대표도서관은 장서개발의 중요성 인식, 미래지향적 사고, 전략적 판단 등을 전제로 장서개발정책을 수립․문서화해야 하며, 이를 위한 기본원칙과 구성체계를 제언하였다.

Abstract

All public libraries are collection-based knowledge and cultural service institutions. To this end, a collection development policy is an essential and a strategic menu that every library should establish first. Regional central libraries should establish and apply optimal collection development policies to conduct the legal duties as knowledge and information centers and cooperative preservation facilities of the cities and provinces. Thus, this study analyzed and compared in detail the collection development guidelines (draft) and regulations of regional central libraries in Korea and the collection development policies of metropolitan public libraries abroad. Results showed that the policies of domestic regional central libraries were simply practical guidelines while those in most developed countries were substantial in format and content. All regional central library systems should establish and document collection development policies based on the importance of collection development, future-oriented thinking, and strategic decision. The study also suggested the basic principles and the format for this purpose.

초록보기
초록

본 연구는 복합적인 주제 영역인 이민정책에 관한 다양한 정보를 효과적으로 조직하고 최적의 정보 서비스를 제공할 수 있는 분류표를 개발하기 위해 관련 문헌 연구와 다양한 문헌분류표를 조사하였다. 먼저, 문헌 연구를 통해 이민정책의 학문적 개념과 범주를 정의하고, 이를 바탕으로 핵심 주제 영역을 선정하였다. 다음으로, 듀이십진분류표, 미의회도서관분류표, 한국십진분류표, 국제십진분류표에서 이민정책 분야의 구조와 전개 항목, 특성을 비교 분석하였다. 그리고 이들 분류표 중 전 세계적으로 가장 많이 사용하고 있으며, 정기적으로 개정되고 있는 DDC 23판을 바탕으로 이민정책 분야를 수정 전개하기 위한 설계 원칙과 본표, 보조표를 제안하였다. 수정 전개된 듀이십진분류표는 이민정책을 다루는 주요 분야에 적용될 수 있으며, 이민 정책 관련 전문 연구기관이나 도서관에서 소장 자료를 효과적으로 분류하고 조직하며 이민정책 전문 정보를 통합 관리하기 위한 기초 자료로 활용될 것이다.

Abstract

This study investigated and analyzed various library classification systems and related literature in order to suggest some modifications and expansion of the Dewey Decimal Classification, the 23rd edition (DDC 23) in the area of immigration policy - an interdis- ciplinary subject - for the best information organization and services. First of all, definitions and scopes of the immigration policy were dealt with and then primary subject areas of it were selected. And then, DDC, Library of Congress Classification, Korean Decimal Classification, and Universal Decimal Classification were compared and analyzed according to the structures, headings and characteristics. Finally, modified classification schedules in immigration policy of the DDC 23 - the most frequently used one with an regular revision was proposed with their principles and main schedules with an auxiliary table. It can be used for an effective information organization in immigration policy area and it will be useful for many libraries and research institutes on immigration policy.

초록보기
초록

동일한 인명을 갖는 서로 다른 실세계 사람들이 존재하는 현실은 인터넷 세계에서 인명으로 표현된 개체의 신원을 식별해야 하는 문제를 발생시킨다. 상기의 문제가 학술정보 내의 저자명 개체로 제한된 경우를 저자식별이라 부른다. 저자식별은 식별 대상이 되는 저자명 개체 사이의 유사도 즉 저자유사도를 계산하는 단계와 이후 저자명 개체들을 군집화하는 단계로 이루어진다. 저자유사도는 공저자, 논문제목, 게재지정보 등의 저자식별자질들의 자질유사도로부터 계산되는데, 이를 위해 기존에 교사방법과 비교사방법들이 사용되었다. 저자식별된 학습샘플을 사용하는 교사방법은 비교사방법에 비해 다양한 저자식별자질들을 결합하는 최적의 저자유사도함수를 자동학습할 수 있다는 장점이 있다. 그러나, 기존 교사방법 연구에서는 SVM, MEM 등의 일부 기계학습기법만이 시도되었다. 이 논문은 다양한 기계학습기법들이 저자식별에 미치는 성능, 오류, 효율성을 비교하고, 공저자와 논문제목 자질에 대해 자질값 추출 및 자질 유사도 계산을 위한 여러 기법들의 비교분석을 제공한다.

Abstract

In bibliographic data, the use of personal names to indicate authors makes it difficult to specify a particular author since there are numerous authors whose personal names are the same. Resolving same-name author instances into different individuals is called author resolution, which consists of two steps: calculating author similarities and then clustering same-name author instances into different person groups. Author similarities are computed from similarities of author-related bibliographic features such as coauthors, titles of papers, publication information, using supervised or unsupervised methods. Supervised approaches employ machine learning techniques to automatically learn the author similarity function from author-resolved training samples. So far, however, a few machine learning methods have been investigated for author resolution. This paper provides a comparative evaluation of a variety of recent high-performing machine learning techniques on author disambiguation, and compares several methods of processing author disambiguation features such as coauthors and titles of papers.

24
김선욱(경북대학교 사회과학대학 문헌정보학과) ; 양기덕(영남고문헌아카이브센터) 2022, Vol.39, No.3, pp.99-132 https://doi.org/10.3743/KOSIM.2022.39.3.099
초록보기
초록

본 연구의 목적은 LDA 토픽모델링 결과와 BERTopic 토픽모델링 결과를 합성하는 방법론인 Augmented and Extended Topics(AET)를 제안하고, 이를 사용해 문헌정보학 분야의 연구주제를 분석하는 데 있다. AET의 실제 적용결과를 확인하기 위해 2001년 1월부터 2021년 10월까지의 Web of Science 내 문헌정보학 학술지 85종에 게재된 학술논문 서지 데이터 55,442건을 분석하였다. AET는 서로 다른 토픽모델링 결과의 관계를 WORD2VEC 기반 코사인 유사도 매트릭스로 구축하고, 매트릭스 내 의미적 관계가 유효한 범위 내에서 매트릭스 재정렬 및 분할 과정을 반복해 증강토픽(Augmented Topics, 이하 AT)을 추출한 뒤, 나머지 영역에서 코사인 유사도 평균값 순위와 BERTopic 토픽 규모 순위에 대한 조화평균을 통해 확장토픽(Extended Topics, 이하 ET)을 결정한다. 최적 표준으로 도출된 LDA 토픽모델링 결과와 AET 결과를 비교한 결과, AT는 LDA 토픽모델링 토픽을 한층 더 구체화하고 세분화하였으며 ET는 유효한 토픽을 발견하였다. AT(Augmented Topics)의 성능은 LDA 이상이었으며 ET(Extended Topics)는 일부 경우를 제외하고 대부분 LDA와 유사한 수준의 성능을 나타내었다.

Abstract

The purpose of this study is to propose AET (Augmented and Extended Topics), a novel method of synthesizing both LDA and BERTopic results, and to analyze the recently published LIS articles as an experimental approach. To achieve the purpose of this study, 55,442 abstracts from 85 LIS journals within the WoS database, which spans from January 2001 to October 2021, were analyzed. AET first constructs a WORD2VEC-based cosine similarity matrix between LDA and BERTopic results, extracts AT (Augmented Topics) by repeating the matrix reordering and segmentation procedures as long as their semantic relations are still valid, and finally determines ET (Extended Topics) by removing any LDA related residual subtopics from the matrix and ordering the rest of them by (BERTopic topic size rank, Inverse cosine similarity rank). AET, by comparing with the baseline LDA result, shows that AT has effectively concretized the original LDA topic model and ET has discovered new meaningful topics that LDA didn’t. When it comes to the qualitative performance evaluation, AT performs better than LDA while ET shows similar performances except in a few cases.

초록보기
초록

지적구조 분석을 위해 가중 네트워크를 시각화해야 하는 경우에 패스파인더 네트워크와 같은 링크 삭감 알고리즘이 널리 사용되고 있다. 이 연구에서는 네트워크 시각화를 위한 링크 삭감 알고리즘의 적합도를 측정하기 위한 지표로 NetRSQ를 제안하였다. NetRSQ는 개체간 연관성 데이터와 생성된 네트워크에서의 경로 길이 사이의 순위 상관도에 기반하여 네트워크의 적합도를 측정한다. NetRSQ의 타당성을 확인하기 위해서 몇 가지 네트워크 생성 방식에 대해 정성적으로 평가를 했었던 선행 연구의 데이터를 대상으로 시험적으로 NetRSQ를 측정해보았다. 그 결과 품질이 좋게 평가된 네트워크일수록 NetRSQ가 높게 측정됨을 확인하였다. 40가지 계량서지적 데이터에 대해서 4가지 링크 삭감 알고리즘을 적용한 결과에 대해서 NetRSQ로 품질을 측정하는 실험을 수행한 결과, 특정 알고리즘의 네트워크 표현 결과가 항상 좋은 품질을 보이는 것은 아니며, 반대로 항상 나쁜 품질을 보이는 것도 아님을 알 수 있었다. 따라서 이 연구에서 제안한 NetRSQ는 생성된 계량서지적 네트워크의 품질을 측정하여 최적의 기법을 선택하는 근거로 활용될 수 있을 것이다.

Abstract

Link reduction algorithms such as pathfinder network are the widely used methods to overcome problems with the visualization of weighted networks for knowledge domain analysis. This study proposed NetRSQ, an indicator to measure the goodness of fit of a link reduction algorithm for the network visualization. NetRSQ is developed to calculate the fitness of a network based on the rank correlation between the path length and the degree of association between entities. The validity of NetRSQ was investigated with data from previous research which qualitatively evaluated several network generation algorithms. As the primary test result, the higher degree of NetRSQ appeared in the network with better intellectual structures in the quality evaluation of networks built by various methods. The performance of 4 link reduction algorithms was tested in 40 datasets from various domains and compared with NetRSQ. The test shows that there is no specific link reduction algorithm that performs better over others in all cases. Therefore, the NetRSQ can be a useful tool as a basis of reliability to select the most fitting algorithm for the network visualization of intellectual structures.

초록보기
초록

국내 학술회의 논문으로 구성된 문헌집합을 대상으로 기계학습에 기초한 자동분류의 성능에 영향을 미치는 요소들을 검토하였다. 특히 구현이 쉽고 컴퓨터 처리 속도가 빠른 로치오 알고리즘을 사용하여 『한국정보관리학회 학술대회 논문집』의 논문에 주제 범주를 자동 할당하는 분류 성능 측면에서 분류기 생성 방법, 학습집합 규모, 가중치부여 기법, 범주 할당 방법 등 주요 요소들의 특성을 다각적인 실험을 통해 살펴보았다. 결과적으로 분류 환경 및 문헌집합의 특성에 따라 파라미터(β, λ)와 학습집합의 크기(5년 이상)를 적절하게 적용하는 것이 효과적이며, 동등한 성능 수준이라면 보다 단순한 단일 가중치부여 기법을 사용하여 분류의 효율성을 높일 수 있음을 발견하였다. 또한 국내 학술회의 논문의 분류는 특정 논문에 하나 이상의 범주가 부여되는 복수-범주 분류(multi-label classification)가 실제 환경에 부합한다고 할 수 있으므로, 이러한 환경을 고려하여 주요 성능 요소들의 특성에 기초한 최적의 분류 모델을 개발할 필요가 있다.

Abstract

This study examined the factors affecting the performance of automatic classification for the domestic conference papers based on machine learning techniques. In particular, In view of the classification performance that assigning automatically the class labels to the papers in Proceedings of the Conference of Korean Society for Information Management using Rocchio algorithm, I investigated the characteristics of the key factors (classifier formation methods, training set size, weighting schemes, label assigning methods) through the diversified experiments. Consequently, It is more effective that apply proper parameters (β, λ) and training set size (more than 5 years) according to the classification environments and properties of the document set. and If the performance is equivalent, I discovered that the use of the more simple methods (single weighting schemes) is very efficient. Also, because the classification of domestic papers is corresponding with multi-label classification which assigning more than one label to an article, it is necessary to develop the optimum classification model based on the characteristics of the key factors in consideration of this environment.

27
김영범(전남대학교 대학원 기록관리학 석사) ; 장우권(전남대학교 문헌정보학과 교수) 2023, Vol.40, No.3, pp.99-118 https://doi.org/10.3743/KOSIM.2023.40.3.099
초록보기
초록

이 연구의 목적은 기록물의 맥락정보를 담고 있는 메타데이터를 활용하여 기록물 자동분류 과정에서의 성능요소를 파악하는데 있다. 연구를 위해 2022년 중앙행정기관 원문정보 약 97,064건을 수집하였다.수집한 데이터를 대상으로 다양한 분류 알고리즘과 데이터선정방법, 문헌표현기법을 적용하고 그 결과를 비교하여 기록물 자동 분류를 위한 최적의 성능요소를 파악하고자 하였다. 연구 결과 분류 알고리즘으로는 Random Forest가, 문헌표현기법으로는 TF 기법이 가장 높은 성능을 보였으며, 단위과제의 최소데이터 수량은 성능에 미치는 영향이 미미하였고 자질은 성능변화에 명확한 영향을 미친다는 것이 확인되었다.

Abstract

The objective of this study is to identify performance factors in the automatic classification of records by utilizing metadata that contains the contextual information of records. For this study, we collected 97,064 records of original textual information from Korean central administrative agencies in 2022. Various classification algorithms, data selection methods, and feature extraction techniques are applied and compared with the intent to discern the optimal performance-inducing technique. The study results demonstrated that among classification algorithms, Random Forest displayed higher performance, and among feature extraction techniques, the TF method proved to be the most effective. The minimum data quantity of unit tasks had a minimal influence on performance, and the addition of features positively affected performance, while their removal had a discernible negative impact.

28
이용구(경북대학교 문헌정보학과) 2023, Vol.40, No.4, pp.307-327 https://doi.org/10.3743/KOSIM.2023.40.4.307
초록보기
초록

이 연구는 짧은 텍스트인 서명에 단어 임베딩이 미치는 영향을 분석하기 위해 Word2vec, GloVe, fastText 모형을 이용하여 단행본 서명을 임베딩 벡터로 생성하고, 이를 분류자질로 활용하여 자동분류에 적용하였다. 분류기는 k-최근접 이웃(kNN) 알고리즘을 사용하였고 자동분류의 범주는 도서관에서 도서에 부여한 DDC 300대 강목을 기준으로 하였다. 서명에 대한 단어 임베딩을 적용한 자동분류 실험 결과, Word2vec와 fastText의 Skip-gram 모형이 TF-IDF 자질보다 kNN 분류기의 자동분류 성능에서 더 우수한 결과를 보였다. 세 모형의 다양한 하이퍼파라미터 최적화 실험에서는 fastText의 Skip-gram 모형이 전반적으로 우수한 성능을 나타냈다. 특히, 이 모형의 하이퍼파라미터로는 계층적 소프트맥스와 더 큰 임베딩 차원을 사용할수록 성능이 향상되었다. 성능 측면에서 fastText는 n-gram 방식을 사용하여 하부문자열 또는 하위단어에 대한 임베딩을 생성할 수 있어 재현율을 높이는 것으로 나타났다. 반면에 Word2vec의 Skip-gram 모형은 주로 낮은 차원(크기 300)과 작은 네거티브 샘플링 크기(3이나 5)에서 우수한 성능을 보였다.

Abstract

To analyze the impact of word embedding on book titles, this study utilized word embedding models (Word2vec, GloVe, fastText) to generate embedding vectors from book titles. These vectors were then used as classification features for automatic classification. The classifier utilized the k-nearest neighbors (kNN) algorithm, with the categories for automatic classification based on the DDC (Dewey Decimal Classification) main class 300 assigned by libraries to books. In the automatic classification experiment applying word embeddings to book titles, the Skip-gram architectures of Word2vec and fastText showed better results in the automatic classification performance of the kNN classifier compared to the TF-IDF features. In the optimization of various hyperparameters across the three models, the Skip-gram architecture of the fastText model demonstrated overall good performance. Specifically, better performance was observed when using hierarchical softmax and larger embedding dimensions as hyperparameters in this model. From a performance perspective, fastText can generate embeddings for substrings or subwords using the n-gram method, which has been shown to increase recall. The Skip-gram architecture of the Word2vec model generally showed good performance at low dimensions(size 300) and with small sizes of negative sampling (3 or 5).

29
오삼균(성균관대학교) ; 채진석(인천대학교) 2004, Vol.21, No.4, pp.109-131 https://doi.org/10.3743/KOSIM.2004.21.4.109
초록보기
초록

연구는 서울대학교 디지털도서관 프로젝트의 지원으로 추진되었음.****성균관대학교 문헌정보학과 부교수(samoh@skku.ac.kr)****인천대학교 컴퓨터공학과 부교수(jschae@incheon.ac.kr) 논문접수일자 : 2004년 11월 13일 게재확정일자 : 2004년 12월 19일攀攀정보자원의 전달 매체와 형태가 다양화됨에 따라서 이에 대한 관리방법 또한 다양화되어 왔다. 도서관 환경에서는 정보자원를 위한 관리방법으로서 AACR, KCR 등의 목록규칙이 정립되었으며 이러한 목록규칙에 근거한 정보자원관리를 자동화하고자 하는 노력의 결과로서 MARC가 개발되었다. 하지만, MARC 레코드는 서지 레코드가 지니고 있는 의미적 관계의 표현을 지원하지 못하는 구조적 경직성으로 인해 다양하고 상이한 기술적 특성을 지니는 정보자원들을 적절히 기술하는데 제약이 따른다. 즉, MARC의 기본 설계 목적이 몇몇 정보유형에는 비교적 적합하더라도 새로운 형태의 정보유형의 다양성을 지원하는데 어려움이 있다. 또한 MARC를 활용한 정보자원 관리 방식에서는 정보자원 간 연결 관계의 표현을 지원하지 못한다. 즉, MARC의 데이터 모델은 자원기술의 대상을 단일의 객체로 파악하는 단층 데이터 모델이기 때문에 여러 객체들 간의 연결 관계를 설정할 수 있는 다층 데이터 모델을 이용한 정보자원 기술이 필요한 경우는 적절치 못하다. 본 연구에서는 다층 데이터 모델을 지원하는 IFLA FRBR 기본 모델을 기초로 하여 전자도서관에서 사용되는 고서, 고문서, 음악 자료, 학술회의 및 세미나 자료의 관리에 있어서 이용자의 정보요구를 최대한 수용할 수 있는 최적의 메타데이터 모델과 이에 대한 XML 스키마 기반의 표현 체계를 제시하고자 한다.

Abstract

As there are diverse delivery media and forms of information resources, their management schemes are diverse as well. In library community, cataloguing rules for describing information resources such as AACR and KCR have been developed. The efforts to automate management of information resources based on these rules resulted in the development of MARC. However, MARC records are restricted in describing the information resources and MARC has various and distinct characteristics of the structural rigidity, which does not support the representation of extended semantic structures that exist among bibliographic entities. Therefore, since the data model for MARC is single-layer data model, it is not appropriate for describing information resources represented by multi-layer data model which can be used to set up the relationships among various objects in digital libraries. In this paper, we propose an a metadata model for digital libraries based on the IFLA FRBR basic model which supports multi-layer data model and a representation scheme based on XML Schema to manage the metadata about old books, old documents, resource related to music, conferences and seminars.

30
홍은성(전남대학교 문헌정보학과) ; 장우권(전남대학교) 2015, Vol.32, No.4, pp.107-135 https://doi.org/10.3743/KOSIM.2015.32.4.107
초록보기
초록

이 연구는 우리나라 지방자치단체의 자치법규인 독서문화진흥을 위한 조례의 제정과 시행에 대한 현황과 내용을 조사․분석한 후 조례와 규칙의 운영에 대한 효율적인 개선방안을 제시하는데 있다. 이를 위해 문헌고찰과 관련 조례를 조사․분석하였다. 연구의 결과는 1) 전국 245개 광역 및 기초자치단체가 운영 중인 독서관련 자치법규는 조례가 77건, 규칙이 7건으로 나타났다. 2) 지자체와 교육지자체의 조례와 규칙명칭이 다양하게 나타나고 있다. 3) 조례와 규칙의 명칭에 따라 내용의 구성요소가 다양하게 나타나고 있으며, 같은 조례 규칙의 명칭을 부여하고 있음에도 서로 다른 구성요소를 가지고 있다. 4) 현재까지 폐지된 지자체 독서관련 자치법규는 조례 10건, 훈령 2건으로 나타났다. 이에 독서문화진흥정책의 활성화를 위한 방안을 제시하면 1) 독서진흥정책 홍보를 통한 인지도를 개선해야 한다. 2) 지자체의 독서진흥의 환경을 고려한 최적의 자치법규 조례명칭을 부여해야 하며, 조례 규칙의 내용은 통일성을 가져야 한다. 3) 조례는 폐지하기에 앞서 폐지 후 나타난 문제점을 면밀히 살펴본 후, 주민들이나 전문가들의 의견을 충분히 수렴한 후 대체 자치법규를 제정하여야 한다.

Abstract

The purpose of this study is to investigate and analyze present condition of enactment and enforcement of regulation for reading culture promotion which is a local statute of the autonomous community of Korea to suggest effective improvement methods for operation of ordinance and regulation. In this research, literature review and regulation analysis were conducted and investigated. The results of this study are as follows. 1) There were 77 ordinances of reading related local statutes of 245 metropolitan and primary local authority and 7 regulations. 2) Ordinances and ordinance regulation of the local government and local government of education are being named variously. 3) Composition of ordinances ordinance regulation were not systematic due to diverse contents of ordinance by local government according to the names of ordinance, and they overlapped with similar contents in general. 4) There were 10 ordinances and 2 official orders for the abolished reading related local statutes of the local government until today. This study suggested the following methods to vitalize the reading culture promotion policy. 1) It would be necessary to improve awareness by promoting the reading promotion policy. 2) Optimal name for local statute and ordinance that considered the environment of reading promotion of local statue need to be assigned, and contents of the ordinance regulation related to reading needs to be consistent. 3) Local statutes need to be established by collecting enough opinions of residents or specialists after thoroughly examining problems of the ordinance before abolition.

정보관리학회지