바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: information problem, 검색결과: 2
초록보기
초록

문헌간 유사도를 자질로 사용하는 분류기에서 미분류 문헌을 학습에 활용하여 분류 성능을 높이는 방안을 모색해보았다. 자동분류를 위해서 다량의 학습문헌을 수작업으로 확보하는 것은 많은 비용이 들기 때문에 미분류 문헌의 활용은 실용적인 면에서 중요하다. 미분류 문헌을 활용하는 준지도학습 알고리즘은 대부분 수작업으로 분류된 문헌을 학습데이터로 삼아서 미분류 문헌을 분류하는 첫 번째 단계와, 수작업으로 분류된 문헌과 자동으로 분류된 문헌을 모두 학습 데이터로 삼아서 분류기를 학습시키는 두 번째 단계로 구성된다. 이 논문에서는 문헌간 유사도 자질을 적용하는 상황을 고려하여 두 가지 준지도학습 알고리즘을 검토하였다. 이중에서 1단계 준지도학습 방식은 미분류 문헌을 문헌유사도 자질 생성에만 활용하므로 간단하며, 2단계 준지도학습 방식은 미분류 문헌을 문헌유사도 자질 생성과 함께 학습 예제로도 활용하는 알고리즘이다. 지지벡터기계와 나이브베이즈 분류기를 이용한 실험 결과, 두 가지 준지도학습 방식 모두 미분류 문헌을 활용하지 않는 지도학습 방식보다 높은 성능을 보이는 것으로 나타났다. 특히 실행효율을 고려한다면 제안된 1단계 준지도학습 방식이 미분류 문헌을 활용하여 분류 성능을 높일 수 있는 좋은 방안이라는 결론을 얻었다

Abstract

This paper studies the problem of classifying documents with labeled and unlabeled learning data, especially with regards to using document similarity features. The problem of using unlabeled data is practically important because in many information systems obtaining training labels is expensive, while large quantities of unlabeled documents are readily available. There are two steps in general semi-supervised learning algorithm. First, it trains a classifier using the available labeled documents, and classifies the unlabeled documents. Then, it trains a new classifier using all the training documents which were labeled either manually or automatically. We suggested two types of semi-supervised learning algorithm with regards to using document similarity features. The one is one step semi-supervised learning which is using unlabeled documents only to generate document similarity features. And the other is two step semi-supervised learning which is using unlabeled documents as learning examples as well as similarity features. Experimental results, obtained using support vector machines and naive Bayes classifier, show that we can get improved performance with small labeled and large unlabeled documents then the performance of supervised learning which uses labeled-only data. When considering the efficiency of a classifier system, the one step semi-supervised learning algorithm which is suggested in this study could be a good solution for improving classification performance with unlabeled documents.

초록보기
초록

최근 제안된 완벽주의 지수 PI는 연구자를 유력자와 대량생산자로 구분하는 지표이다. 이 연구에서는 PI를 개량한 새로운 지표인 준완벽주의 지수 NPI를 제안하였다. NPI는 특히 발행시기 등을 고려하지 않고 저인용논문에 무조건 획일적인 기준으로 패널티를 부과하던 PI의 방식을 개선하는 보완 지수이다. NPI에서는 꼬리 보상 영역에 인용빈도 곡선을 고려하면서 패널티를 부과함으로써, h-지수의 향상이 오히려 영향력 지표에 불리하게 작용하는 것을 방지한다. 이렇게 개발된 NPI를 Web of Science 문헌정보학 관련 분야 학술지에 시험 적용해본 결과 h-지수와 평균 인용횟수로는 불가능했던, 유력 학술지와 대량생산 학술지의 구분을 성공적으로 수행할 수 있었다.

Abstract

The Perfectionism Index (PI) is an indicator that is recently proposed to distinguish influential researchers from mass producers. In this study, Near Perfectionism Index (NPI), an improved indicator of Perfectionism Index, can be a solution to the problem of PI that indiscriminately gives a penalty to all low-cited papers regardless of publishing time or other issues. NPI improved the method to give a penalty to tail complement area considering the citation distribution curve. It prevents the improvement of the h-index from adversely affecting the researcher’s influence indicator. This study uses NPI to evaluate information and library science journals in Web of Science database. It successfully distinguishes between influential journals and mass producers unlike journal h-index or average citation frequency which could not differentiate influentials from mass producers.

정보관리학회지