바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 최적화, 검색결과: 32
초록보기
초록

Abstract

This paper describes a Web search optimization study that investigates both static and dynamic tuning methods for optimizing system performance. We extended the conventional fusion approach by introducing the “dynamic tuning” process with which to optimize the fusion formula that combines the contributions of diverse sources of evidence on the Web. By engaging in iterative dynamic tuning process, where we successively fine-tuned the fusion parameters based on the cognitive analysis of immediate system feedback, we were able to significantly increase the retrieval performance.Our results show that exploiting the richness of Web search environment by combining multiple sources of evidence is an effective strategy.

초록보기
초록

본 연구는 실재 시스템 환경에서 문헌 분류를 위해 범주화 기법을 적용할 경우, 범주화 성능이 어느 정도이며, 적정한 문헌범주화 성능의 달성을 위하여 분류기 학습에 필요한 범주당 가장 이상적인 학습문헌집합의 규모는 무엇인가를 파악하기 위하여 kNN 분류기를 사용하여 실험하였다. 실험문헌집단으로15만 여건의 실제 서비스되는 데이터베이스에서 2,556건 이상의 문헌을 가진 8개 범주를 선정하였다. 이들을 대상으로 범주당 학습문헌수 20개(Tr20)에서 2,000개(Tr2000)까지 단계별로 증가시키며 8개 학습문헌집합 규모를 갖도록 하위문헌집단을 구성한 후, 학습문헌집합 규모에 따른 하위문헌집단 간 범주화 성능을 비교하였다. 8개 하위문헌집단의 거시평균 성능은 F1 값 30%로 선행연구에서 발견된 kNN 분류기의 일반적인 성능에 미치지 못하는 낮은 성능을 보였다. 실험을 수행한 8개 대상문헌집단 중 학습문헌수가 100개인 Tr100 문헌집단이 F1 값 31%로 비용대 효과면에서 분류기 학습에 필요한 최적정의 실험문헌집합수로 판단되었다. 또한, 실험문헌집단에 부여된 주제범주 정확도를 수작업 재분류를 통하여 확인한 후, 이들의 범주별 범주화 성능과 관련성을 기반으로 위 결론의 신빙성을 높였다.

Abstract

This paper examines a level of categorization performance in a reallife collection of abstract articles in the fields of science and technology, and tests the optimal size of documents per category in a training set using a kNN classifier. The corpus is built by choosing categories that hold more than 2,556 documents first, and then 2,556 documents per category are randomly selected. It is further divided into eight subsets of different size of training documents: each set is randomly selected to build training documents ranging from 20 documents (Tr20) to 2,000 documents (Tr2000) per category. The categorization performances of the 8 subsets are compared. The average performance of the eight subsets is 30% in F1 measure which is relatively poor compared to the findings of previous studies. The experimental results suggest that among the eight subsets the Tr100 appears to be the most optimal size for training a kNN classifier. In addition, the correctness of subject categories assigned to the training sets is probed by manually reclassifying the training sets in order to support the above conclusion by establishing a relation between and the correctness and categorization performance.

초록보기
초록

본 연구는 새로운 분석법으로 떠오르는 처방적 분석 기법을 소개하고, 이를 분류 기반의 시스템에 효율적으로 적용하는 방안을 제시하는 것을 목적으로 한다. 처방적 분석 기법은 분석의 결과를 제시함과 동시에 최적화된 결과가 나오기까지의 과정 및 다른 선택지까지 제공한다. 새로운 개념의 분석 기법을 도입함으로써 문헌 분류를 기반으로 하는 응용 시스템을 더욱 쉽게 최적화하고 효율적으로 운영하는 방안을 제시하였다. 최적화의 과정을 시뮬레이션하기 위해, 대용량의 학술문헌을 수집하고 기준 분류 체계에 따라 자동 분류를 실시하였다. 처방적 분석 개념을 적용하는 과정에서 대용량의 문헌 분류를 위한 동적 자동 분류 기법과 학문 분야의 지적 구조 분석 기법을 동시에 활용하였다. 실험의 결과로 효과적으로 서비스 분류 체계를 수정하고 재적용할 수 있는 몇 가지 최적화 시나리오를 효율적으로 도출할 수 있음을 보여 주었다.

Abstract

This study aims to introduce an emerging prescriptive analytics method and suggest its efficient application to a category-based service system. Prescriptive analytics method provides the whole process of analysis and available alternatives as well as the results of analysis. To simulate the process of optimization, large scale journal articles have been collected and categorized by classification scheme. In the process of applying the concept of prescriptive analytics to a real system, we have fused a dynamic automatic-categorization method for large scale documents and intellectual structure analysis method for scholarly subject fields. The test result shows that some optimized scenarios can be generated efficiently and utilized effectively for reorganizing the classification-based service system.

4
노영희(건국대학교) ; 김태경(국립중앙도서관 도서관연구소) 2015, Vol.32, No.2, pp.25-61 https://doi.org/10.3743/KOSIM.2015.32.2.025
초록보기
초록

본 연구에서는 도서관 개인정보 가이드라인(안)을 제안하되, 관종을 구분하지 않고 어느 도서관에서나 적용가능하도록 하였다. 개개 도서관은 이 가이드라인(안)을 기초로 하여 자관의 실정에 맞게 수정․보완하여 사용할 수 있도록 하였다. 목적, 용어정의, 개인정보의 범위, 관련법 및 정책, 일반적인 내용, 도서관의 업무수행상 개인정보처리, 도서관의 외주업체 등으로 구분하여 도서관 개인정보보호 가이드라인을 개발하였으며, 개정된 「개인정보 보호법」 시행에 따른 도서관의 대처방향 마련, 개인정보처리지침의 도서관 최적화, 관련법령에의 반영, 도서관 개인정보 가이드라인 표준화 지향 등을 고려하였다.

Abstract

This study was designed to propose library privacy guidelines to be applicable in any library without distinguishing library types. Individual libraries can refine, modify, and use them to fit their situation, using the guidelines as a base. The library privacy protection guidelines developed in this study are composed of purposes, definitions, scope of privacy, law and policy, general information, the library’s job performance on the handling of personal information, and library subcontractors. The development objectives and utilization direction of the library privacy guidelines developed in this study are meant to provide a guide for change according to the amended provision of library “Privacy Act” implementation, optimization of library Privacy Directive, a reflection of the relevant laws and regulations, and the standardization-oriented library privacy guidelines.

5
홍현진(전남대학교) ; 정준민(전남대학교) ; 강미희() ; 정대근(전남대학교) 2003, Vol.20, No.2, pp.285-318 https://doi.org/10.3743/KOSIM.2003.20.2.285
초록보기
초록

본 연구는 국가과학기술문헌센터 건립에 대한 이론적 기반을 수립하는 것으로서 국가과학기술 문헌센터의 기능과 역할에 부합한 적정규모의 최적모형을 도출하기 위한 것이다. 이를 위해 국가 과학기술문헌센터의 기능 중 건물 규모 산출과 설비를 위해 자료공동보존소로서의 콘도미니엄 프로그램 개발과 하이브리드 도서관, 클리어링하우스 등의 기능과 역할을 검토하고, 이에 따라 국가과학기술문헌센터 건물의 공간구성 프로그램 국가과학기술문헌센터의 계획 대지 현황분석과 기본구상을 제시하였다.

Abstract

The purpose of this research is to suggest a theoretical base and guideline for the national scientific and techmical information ivfrastructure of the national scientific technology. And the obhective of this study is to contribute ti strengthen the need of the building of the national scientific and technical information center and provide operation programs and vision toward information center which will be established later. This study suggesrs a plan and strategy which make it possoble to conduct functions asthe national repository, clearinghouse, and portal gateway of the electronic resource and propose apace program fpr the optimal building construction. Therefore, the contents of this study cover the building of the national scientific and technical information center as well as the basic plan of scale and space progran, validity analysis of site location and environment

초록보기
초록

이 연구의 목적은 대량의 최신정보를 제공하는 정보필터링 시스템에서 이용자 피드백에 의해 수정질의를 자동생성하여 재검색을 수행함으로써 검색 성능을 최적화할 수 있는 방안을 찾는 데 있다. 이용자가 입력한 초기질의를 사용하여 정보필터링 시스템이 검색한 문헌에 대해 이용자가 적합성 여부를 온라인으로 입력하도록 하고, 이 피드백 결과를 토대로 '중복제거법'과 '저빈도제거법' 두 가지 방법에 의해각각 17개의 수정질의를 생성하여 재검색한 결과를 초기 검색결과와 비교 분석하였다. 수정질의는 각각의 방법마다 17개 패턴의 불논리 질의형태를 미리 만든 다음 초기질의에 디스크립터와 분류기호를 결합하여 생성하였으며, 재검색 결과에 대한 적합성 평가를 통해 최적의 수정질의식을 도출하였다.

Abstract

In this study an information filtering system was implemented and a series of relevance feedback experiments were conducted using the system. For the relevance feedback, the original queries were searched against the database and the results were reviewed by the researchers. Based on users' online relevance judgements a pair of 17 refined queries were generated using two methods called "co-occurrence exclusion method" and "lower frequencies exclusion method." In order to generate them, the original queries. the descriptors and category codes appeared in either relevant or irrelevant document sets were applied as elements. Users' relevance judgments on the search results of the refined queries were compared and analyzed against those of the original queries. [ 더 많은 내용 보기 ]

초록보기
초록

본 연구에서 제안하는 기법은 최대 개념강도 인지기법(Maximal Concept-Strength Recognition Method: MCR)이다. 신규 데이터베이스가 입수되어 자동분류가 필요한 경우에, 기 구축된 여러 데이터베이스 중에서 최적의 데이터베이스가 어떤 것인지 알 수 없는 상태에서 MCR 기법은 가장 유사한 데이터베이스를 선택할 수 있는 방법을 제공한다. 실험을 위해 서로 다른 4개의 학술 데이터베이스 환경을 구성하고 MCR 기법을 이용하여 최고의 성능값을 측정하였다. 실험 결과, MCR을 이용하여 최적의 데이터베이스를 정확히 선택할 수 있었으며 MCR을 이용한 자동분류 정확률도 최고치에 근접하는 결과를 보여주었다.

Abstract

The proposed method in this study is the Maximal Concept-Strength Recognition Method(MCR). In case that we don't know which database is the most suitable for automatic-classification when new database is imported, MCR method can support to select the most similar database among many databases in the legacy system. For experiments, we constructed four heterogeneous scholarly databases and measured the best performance with MCR method. In result, we retrieved the exact database expected and the precision value of MCR based automatic-classification was close to the best performance.

초록보기
초록

디지털 정보의 보존을 위해서는 보존활동과 관련된 메타데이터 구축이 필수적이다. 하지만, 현재 디지털 아카이빙에서는 디지털 객체의 보존을 위한 최적화 된 메타데이터 구조가 마련되어 있지 않은 실정이다. 이에 본 연구에서는 디지털 아카이빙의 핵심적인 프로세스를 중심으로 디지털 객체의 기술 및 보존을 지원할 수 있는 메타데이터 패키지를 구축하였다. 본 연구에서 제안한 메타데이터 패키지는 총 4개의 상위요소 및 25개의 세부적인 요소로 구성되어 있으며, 디지털 객체를 보존하는데 필요한 기술사항을 디지털 아카이빙의 핵심적인 단계에 따라 최적화 된 방식으로 제공해 줄 수 있다. 이는 디지털 객체의 보존에 있어 기존의 정보 패키지에 비해 보다 효율적이고 실제적인 기술방식으로 적용될 수 있을 것으로 기대된다.

Abstract

The construction of preservation metadata is a prerequisite for the preservation of digital information. In the current approaches to digital archiving, however, there is no metadata structure optimized to describe preserved digital objects. This research proposed metadata packages that can support the description of digital objects from the perspective of the core processes of digital archiving. The proposed metadata packages consist of 4 wrapper elements and 25 sub-elements. They can provide detailed descriptions required to preserve digital objects in accordance with the core processes of digital archiving. Therefore, the proposed metadata package can be applied to digital archiving as a better approach to the description of digital objects compared to the approaches to information package.

초록보기
초록

이용자를 시스템 디자인 과정에 적극적으로 참여하는 것이 유용한 정보 시스템의 디자인을 성공시키는 필수요소이다. 본 논문에서는 이용자 중심의 시스템 디자인에 관한 대표적인 방법론을 조사하고, 그 조사결과에 따라 최적의 이용자 모델을 제안하였다. 최적의 정보시스템을 설계하기 위해 실제 이용자들이 자신들의 정보요구를 만족시키기 위해 어떠한 정보를 필요로 하는지와 그들이 수립하는 일련의 정보전략을 분석하였다. 본 연구에서 사용한 분석기법은 더빈의 Sense-Making 이론에서 사용한 Sense-Making Timeline 인터뷰이다. 특히 이 연구에서 제시된 이용자 모델은 이 연구에서 사용된 소프트웨어가 본래 가지고 있던 메뉴 배열순서와는 상이한 절차(timeline)를 보여주고 있다. 궁극적으로 본 연구에서는 장래에 수행되어질 시스템 디자인과 그 평가에 적용시킬 수 있기 위해, 이용자 모델수립에 필요한 개발과정의 단계들을 제시하였다.

Abstract

In order to make interactive computing systems, including information systems, usable it is important to bring users into the design process. This article surveys and introduces several major system design approaches that are widely accepted as approaches from a users' perspective. A user model developed by the author is introduced following these existing approaches. This user model is developed from actual users' understanding of their goals and strategies to solve their information needs by using Dervin's Sense-Making Theory with Sense-Making Timeline Interviews. This user model reveals a different timeline from the default menu presentation orders that originally comes with the software. Steps for developing a user model from the Sense-Making Timeline Interviews are suggested for further application and guidelines in developing user models for system design and evaluation.

10
정영미(연세대학교) ; 이용구(계명대학교) 2005, Vol.22, No.2, pp.125-145 https://doi.org/10.3743/KOSIM.2005.22.2.125
초록보기
초록

이 연구에서는 문헌 및 질의의 내용을 대표하는 주제어의 중의성 해소를 위해 대표적인 지도학습 모형인 나이브 베이즈 분류기와 비지도학습 모형인 EM 알고리즘을 각각 적용하여 검색 실험을 수행한 다음, 주제어의 중의성 해소를 통해 검색 성능의 향상을 가져올 수 있는지를 평가하였다. 실험문헌 집단은 약 12만 건에 달하는 한국어 신문기사로 구성하였으며, 중의성 해소 대상 단어로는 한국어 동형이의어 9개를 선정하였다. 검색 실험에는 각 중의성 단어를 포함하는 18개의 질의를 사용하였다. 중의성 해소 실험 결과 나이브 베이즈 분류기는 최적의 조건에서 평균 92%의 정확률을 보였으며, EM 알고리즘은 최적의 조건에서 평균 67% 수준의 클러스터링 성능을 보였다. 중의성 해소 알고리즘을 통합한 의미기반 검색에서는 나이브 베이즈 분류기 통합 검색이 약 39.6%의 정확률을 보였고, EM 알고리즘 통합 검색이 약 36%의 정확률을 보였다. 중의성 해소 모형을 적용하지 않은 베이스라인 검색의 정확률 37%와 비교하면 나이브 베이즈 통합 검색은 약 7.4%의 성능 향상률을 보인 반면 EM 알고리즘 통합 검색은 약 3%의 성능 저하율을 보였다.

Abstract

This paper presents a semantic vector space retrieval model incorporating a word sense disambiguation algorithm in an attempt to improve retrieval effectiveness. Nine Korean homonyms are selected for the sense disambiguation and retrieval experiments. The total of approximately 120,000 news articles comprise the raw test collection and 18 queries including homonyms as query words are used for the retrieval experiments. A Naive Bayes classifier and EM algorithm representing supervised and unsupervised learning algorithms respectively are used for the disambiguation process. The Naive Bayes classifier achieved 92% disambiguation accuracy, while the clustering performance of the EM algorithm is 67% on the average. The retrieval effectiveness of the semantic vector space model incorporating the Naive Bayes classifier showed 39.6% precision achieving about 7.4% improvement. However, the retrieval effectiveness of the EM algorithm-based semantic retrieval is 3% lower than the baseline retrieval without disambiguation. It is worth noting that the performances of disambiguation and retrieval depend on the distribution patterns of homonyms to be disambiguated as well as the characteristics of queries.

정보관리학회지