바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: weighting, 검색결과: 28
초록보기
초록

네트워크 분석이 확산되면서 매개중심성이나 연결정도중심성과 같은 다양한 중심성 지수가 개발되어 활용되고 있으나, 가중 네트워크에서 지역중심성을 측정할 수 있는 지수로는 최근접이웃중심성 이외에는 거의 알려져 있지 않다. 이 연구에서는 가중 네트워크를 위한 일반화된 지역중심성 지수인 이웃중심성 지수를 새롭게 제안한다. 이웃중심성 지수는 파라미터 α를 사용하여 이진 네트워크를 위한 연결정도중심성 지수와 가중 네트워크를 위한 최근접이웃중심성 지수를 일반화한 것이다. 6가지 실제 네트워크 데이터를 대상으로 하여 제안된 지수의 특징과 적정 파라미터 값을 살펴보는 실험을 수행하고 결과를 보고하였다.

Abstract

While there are several measures for node centralities, such as betweenness and degree, few centrality measures for local centralities in weighted networks have been suggested. This study developed a generalized centrality measure for calculating local centralities in weighted networks. Neighbor centrality, which was suggested in this study, is the generalization of the degree centrality for binary networks and the nearest neighbor centrality for weighted networks with the parameter α. The characteristics of suggested measure and the proper value of parameter α are investigated with 6 real network datasets and the results are reported.

초록보기
초록

역문헌빈도 가중치 기법은 문헌 집단에서 출현빈도가 낮을수록 색인어의 중요도가 높다는 가정에 근거하고 있다. 그런데 이는 중간빈도어를 중요하게 여기는 여타 이론과는 일치하지 않는 것이다. 이 연구에서는 저빈도어보다 중간빈도어가 더 중요하다는 가정에 근거하여 역문헌빈도 가중치 공식을 수정한 피벗 역문헌빈도 가중치 기법을 제안하였다. 제안된 기법을 검증하기 위해서 세 실험집단을 대상으로 검색실험을 수행한 결과. 피벗 역문헌빈도 가중치기법이 역문헌빈도 가중치 기법에 비해서 특히 검색결과 상위에서의 성능을 향상시키는 것으로 나타났다.

Abstract

The Inverse Document Frequency (IDF) weighting method is based on the hypothesis that in the document collection the lower the frequency of a term is, the more important the term is as a subject word. This well-known hypothesis is, however, somewhat questionable because some low frequency terms turn out to be insufficient subject words. This study suggests the pivoted IDF weighting method for better retrieval effectiveness, on the assumption that medium frequency terms are more important than low frequency terms. We thoroughly evaluated this method on three test collections and it showed performance improvements especially at high ranks.

3
송성전(연세대학교) ; 정영미(연세대학교) 2012, Vol.29, No.2, pp.205-224 https://doi.org/10.3743/KOSIM.2012.29.2.205
초록보기
초록

자동 분류에서 문헌을 표현하는 일반적인 방식인 BOW는 용어를 독립적으로 처리하기 때문에 주변 문맥을 반영하지 못한다는 한계가 있다. 이에 본 연구는 각 용어마다 주제범주별 문맥적 특징을 파악해 프로파일로 정의하고, 이 프로파일과 실제 문헌에서의 문맥을 비교하는 과정을 통해 동일한 형태의 용어라도 그 의미나 주제적 배경에 따라 구분하고자 하였다. 이를 통해 주제가 서로 다름에도 불구하고 특정 용어의 출현만으로 잘못된 분류 판정을 하는 문제를 극복하고자 하였다. 본 연구에서는 이러한 문맥적 요소를 용어 가중치, 분류기 결합, 자질선정의 3가지 항목에 적용해 보고 그 분류 성능을 측정했다. 그 결과, 세 경우 모두 베이스라인보다 분류 성능이 향상되었고 가장 큰 성능 향상을 보인 것은 분류기 결합이었다. 또한 제안한 방법은 학습문헌 수가 많고 적음에 따라 발생하는 성능의 편향을 완화하는데도 효과적인 것으로 나타났다.

Abstract

One of the limitations of BOW method is that each term is recognized only by its form, failing to represent the term’s meaning or thematic background. To overcome the limitation, different profiles for each term were defined by thematic categories depending on contextual characteristics. In this study, a specific term was used as a classification feature based on its meaning or thematic background through the process of comparing the context in those profiles with the occurrences in an actual document. The experiment was conducted in three phases; term weighting, ensemble classifier implementation, and feature selection. The classification performance was enhanced in all the phases with the ensemble classifier showing the highest performance score. Also, the outcome showed that the proposed method was effective in reducing the performance bias caused by the total number of learning documents.

초록보기
초록

이 연구는 국내 연구자의 학술지 논문 발표 자료를 활용하여 학문분야간 학술지 공유도를 산출하고, 이로부터 국내 학문분야의 구조를 나타내는 네트워크를 생성하였다. 생성된 패스파인더 네트워크는 ‘생물학’분야를 핵심으로 하는 생명과학 분야가 중앙을 차지하고 있었으며, 인문학과 의약학, 공학에 속한 학문끼리는 학문간 연계가 매우 강하게 나타났다. 가중 네트워크로부터 각 학문분야의 중심성과 학제성을 파악하기 위해서 엔트로피 공식과 가중 네트워크 중심성 척도를 적용한 결과 전역 중심 학문, 지역 중심 학문, 전역 연계 학문, 기타 일반 학문의 네 가지 유형을 식별할 수 있었다. 가중 네트워크를 이진 네트워크로 변환한 패스파인더 네트워크에서는 다수의 약한 링크가 모인 데이트 허브가 드러나지 않았으나, 가중 네트워크에서의 중심성 지수인 삼각매개중심성의 측정 범위를 지역에서부터 전역까지 달리하며 측정한 결과로부터 ‘인지과학’분야와 같은 학제성이 높은 데이트 허브를 식별할 수 있었다.

Abstract

The main purposes of this study are to construct a Korean science network from journal contributions data of Korean researchers, and to analyze the structure and characteristics of the network. First of all, the association matrix of 140 scholarly domains are calculated based on the number of contributions in common journals, and then the Pathfinder network algorithm is applied to those matrix. The resulting network has several hubs such as ‘Biology’, ‘Korean Language & Linguistics’, ‘Physics’, etc. The entropy formula and several centrality measures for the weighted networks are adopted to identify the centralities and interdisciplinarity of each scholarly domain. In particular, the date hubs, which have several weak links, are successively distinguished by local and global triangle betweenness centrality measures.

초록보기
초록

이 연구에서는 공개된 가중 네트워크 분석용 소프트웨어인 Opsahl의 tnet과 이재윤의 WNET에서 지원하는 가중 네트워크 중심성 지수를 비교 분석해보았다. tnet은 가중 연결정도중심성, 가중 근접중심성, 가중 매개중심성을 지원하고, WNET은 최근접이웃중심성, 평균연관성, 평균프로파일연관성, 삼각매개중심성을 지원한다. 가상 데이터를 대상으로 한 분석에서 tnet의 중심성 지수는 링크 가중치의 선형 변화에 민감한 반면 WNET의 중심성 지수는 선형 변화에 영향을 받지 않았다. 실제 네트워크 6종을 대상으로 가중 네트워크 중심성을 측정하고 결과를 비교하여 두 소프트웨어의 가중 네트워크 중심성 지수들의 특징을 파악하고 중심성 지수 간 관계를 살펴보았다.

Abstract

This study compared and analyzed weighted network centrality measures supported by Opsahl’s tnet and Lee’s WNET, which are free softwares for weighted network analysis. Three node centrality measures including weighted degree, weighted closeness, and weighted betweenness are supported by tnet, and four node centrality measures including nearest neighbor centrality, mean association, mean profile association, triangle betweenness centrality are supported by WNET. An experimental analysis carried out on artificial network data showed tnet’s high sensitiveness on linear transformations of link weights, however, WNET’s centrality measures were insensitive to linear transformations. Seven centrality measures from both tools, tnet and WNET, were calculated on six real network datasets. The results showed the characteristics of weighted network centrality measures of tnet and WNET, and the relationships between them were also discussed.

초록보기
초록

이 연구의 목적은 공동연구 네트워크에서 연구자의 영향력과 입지를 분석하는데 사용되는 중심성 지수들의 특징에 대해서 고찰하는 것이다. 전통적인 이진 네트워크 중심성 지수로는 연결정도중심성, 매개중심성, 근접중심성, 페이지랭크를 다루었고, 공동연구 네트워크에서의 중심성을 측정하기 위해서 개발되었거나 사용된 가중 네트워크 중심성 지수로는 삼각매개중심성, 평균연관성, 가중페이지랭크, 공동연구 h-지수와 공동연구 hs-지수, 복합연결정도중심성, c-지수에 대해서 살펴보았으며, 새로운 지수로 제곱근합 지수 SSR을 제안하였다. 이들 12종의 중심성 지수를 건축학, 문헌정보학, 마케팅 분야의 세 가지 공동연구 네트워크에 적용해본 결과 각 지수들의 특성과 지수 간 관계를 파악할 수 있었다. 분석 결과 공동연구 네트워크에서 공동연구 범위와 공동연구 강도를 모두 고려하기 위해서는 가중 네트워크 중심성 지수를 사용해야 하는 것으로 나타났다. 특히 공동연구 범위와 강도를 모두 고려하는 전역중심성을 측정하기 위해서는 삼각매개중심성 지수를 사용하고, 지역중심성을 측정하기 위해서는 SSR 지수를 사용하는 것이 바람직하다고 제안하였다.

Abstract

This study explores the characteristics of centrality measures for analyzing researchers’ impact and structural positions in research collaboration networks. We investigate four binary network centrality measures (degree centrality, closeness centrality, betweenness centrality, and PageRank), and seven existing weighted network centrality measures (triangle betweenness centrality, mean association, weighted PageRank, collaboration h-index, collaboration hs-index, complex degree centrality, and c-index) for research collaboration networks. And we propose SSR, which is a new weighted centrality measure for collaboration networks. Using research collaboration data from three different research domains including architecture, library and information science, and marketing, the above twelve centrality measures are calculated and compared each other. Results indicate that the weighted network centrality measures are needed to consider collaboration strength as well as collaboration range in research collaboration networks. We also recommend that when considering both collaboration strength and range, it is appropriate to apply triangle betweenness centrality and SSR to investigate global centrality and local centrality in collaboration networks.

초록보기
초록

로치오 알고리즘에 기반한 자동분류의 성능 향상을 위하여 두 개의 실험집단(LISA, Reuters-21578)을 대상으로 여러 가중치부여 기법들을 검토하였다. 먼저, 가중치 산출에 사용되는 요소를 크게 문헌요소(document factor), 문헌집합 요소(document set factor), 범주 요소(category factor)의 세 가지로 구분하여 각 요소별 단일 가중치부여 기법의 분류 성능을 살펴보았고, 다음으로 이들 가중치 요소들 간의 조합 가중치부여 기법에 따른 성능을 알아보았다. 그 결과, 각 요소별로는 범주 요소가 가장 좋은 성능을 보였고, 그 다음이 문헌집합 요소, 그리고 문헌 요소가 가장 낮은 성능을 나타냈다. 가중치 요소 간의 조합에서는 일반적으로 사용되는 문헌 요소와 문헌집합 요소의 조합 가중치(tfidf or ltfidf)와 함께 문헌 요소를 포함하는 조합(tf*cat or ltf*cat) 보다는, 오히려 문헌 요소를 배제하고 문헌 집합 요소를 범주 요소와 결합한 조합 가중치 기법(idf*cat)이 가장 좋은 성능을 보였다. 그러나 실험집단 측면에서 단일 가중치와 조합 가중치를 서로 비교한 결과에 따르면, LISA에서 범주 요소만을 사용한 단일 가중치(cat only)가 가장 좋은 성능을 보인 반면, Reuters-21578에서는 문헌집합 요소와 범주 요소간의 조합 가중치(idf*cat)의 성능이 가장 우수한 것으로 나타났다. 따라서 가중치부여 기법에 대한 실제 적용에서는, 분류 대상이 되는 문헌집단 내 범주들의 특성을 신중하게 고려할 필요가 있다.

Abstract

This study examines various weighting methods for improving the performance of automatic classification based on Rocchio algorithm on two collections(LISA, Reuters-21578). First, three factors for weighting are identified as document factor, document factor, category factor for each weighting schemes, the performance of each was investigated. Second, the performance of combined weighting methods between the single schemes were examined. As a result, for the single schemes based on each factor, category-factor-based schemes showed the best performance, document set-factor-based schemes the second, and document-factor-based schemes the worst. For the combined weighting schemes, the schemes(idf*cat) which combine document set factor with category factor show better performance than the combined schemes(tf*cat or ltf*cat) which combine document factor with category factor as well as the common schemes(tfidf or ltfidf) that combining document factor with document set factor. However, according to the results of comparing the single weighting schemes with combined weighting schemes in the view of the collections, while category-factor-based schemes(cat only) perform best on LISA, the combined schemes(idf*cat) which combine document set factor with category factor showed best performance on the Reuters-21578. Therefore for the practical application of the weighting methods, it needs careful consideration of the categories in a collection for automatic classification.

초록보기
초록

정보관리기관은 기관의 디지털 성숙도를 효과적으로 평가하고 개선 방향을 명확히 하여 급속도로 발전하는 정보기술환경에 대응할 필요가 있다. 본 연구는 급변하는 정보환경 속에서 정보관리기관의 효과적인 평가 및 방향설정이 용이하도록 디지털 전환의 관점에서 KISTI가 개발한 디지털 큐레이션 성숙도 모델의 가중치를 도출하였다. AHP기법을 통해 모델의 대분류와 중분류에서 상대적 중요도를 가중치로서 도출하였다. 그 결과를 정리해 보면, 전체 모형의 대분류를 100점 기준으로 측정할 때 기술은 27점, 데이터는 24점, 전략은 19점, 조직(인력)은 16점, (사회적)영향력은 14점으로 계산 가능하였다. 그리고 각 대분류 내 중분류에 대해서도 세부항목 별 가중치를 각각 100점 만점을 기준으로 제시하였다. 본 연구에서 도출한 영역별 가중치를 디지털전환 성숙도 평가 모델에 적용함으로써 보다 객관적이고 합리적인 평가가 가능할 것으로 기대된다.

Abstract

In the rapidly developing information technology environment, information management organizations need to effectively evaluate their digital maturity and clarify the direction of improvement to effectively respond to rapidly changing environments. This study derived weights for the digital curation maturity model developed by KISTI from the perspective of digital transformation to facilitate effective evaluation and direction setting of information management organizations. Relative importance was derived as a weight in the major and middle categories of the model through the AHP technique. Summarizing the results, when the major categories of the entire model are measured on the basis of 100 points, technology is 27 points, data is 24 points, strategy is 19 points, organization (manpower) is 16 points, and (social) influence is calculated as 14 points. In addition, weights for each subcategory were presented for each major classification based on a perfect score of 100 points. It is expected that a more objective and reasonable evaluation will be possible by applying the weights for each area derived from this study to the digital transformation maturity evaluation model.

9
이용구(계명대학교) ; 김병규(한국과학기술정보연구원) 2011, Vol.28, No.1, pp.309-326 https://doi.org/10.3743/KOSIM.2011.28.1.309
초록보기
초록

기존 메타데이터의 품질 측정 방법은 오류가 발생한 레코드를 단순히 계수하여 그 비율로 품질을 측정하였다. 이러한 한계를 극복하기 위해 메타데이터 요소별로 상대적 중요 정도를 나타내는 가중치를 적용함으로서, 메타데이터 품질을 체계적으로 계량화 하는 측정 방법을 제시하고자 하였다. 구체적인 가중치 부여 방법으로 엔트로피, 이용자 과업, 그리고 이용 통계를 활용하였다. 또한 이들을 결합하여 통합 가중치를 제시하고 실제 서비스 되고 있는 학술지 기사 메타데이터에 적용하였다. 실험 결과, 엔트로피 가중치 방법은 데이터 자체의 특성을 잘 반영하며, 이용자 과업을 적용한 방법은 이용자의 정보요구를 해결하는 필요한 메타데이터 요소를 제시하며, 통합 가중치는 특정 메타데이터 요소의 오류에 영향을 받지 않으면서 균형 잡힌 측정값을 제시하여 계량화 방법에 적합한 것으로 나타났다.

Abstract

Most metadata quality measurement employ simple techniques by counting error records. This study presents a new quantitative measurement of metadata quality using advanced weighting schemes in order to overcome the limitations of exiting measurement techniques. Entropy, user tasks, and usage statistics were used to calculate the weights. Integrated weights were presented by combining these weights and were applied to actual journal article metadata. Entropy weights were found to reflect the characteristics of the data itself. User tasks presented the required metadata elements to solve user's information need. Integrated weights showed balanced measures without being affected by the influence of error elements, This finding indicates the new method being suitable for quantitative measurement of metadata quality.

초록보기
초록

본 연구는 OPAC에서 계층 클러스터링을 응용하여 소장자료를 계층구조로 분류하여 열람하는데 사용될 수 있는 최적의 계층 클러스터링 모형을 찾기 위한 목적으로 수행되었다. 문헌정보학 분야 단행본과 학위논문으로 실험집단을 구축하여 다양한 색인기법(서명단어 자동색인과 통제어 통합색인)과 용어가중치 기법(절대빈도와 이진빈도), 유사도 계수(다이스, 자카드, 피어슨, 코싸인, 제곱 유클리드), 클러스터링 기법(집단간 평균연결, 집단내 평균연결, 완전연결)을 변수로 실험하였다. 연구결과 집단간 평균연결법과 제곱 유클리드 유사도를 제외하고 나머지 유사도 계수와 클러스터링 기법은 비교적 우수한 클러스터를 생성하였으나, 통제어 통합색인을 이진빈도로 가중치를 부여하여 완전연결법과 집단간 평균연결법으로 클러스터링 하였을 때 가장 좋은 클러스터가 생성되었다. 그러나 자카드 유사도 계수를 사용한 집단간 평균연결법이 십진구조와 더 유사하였다.

Abstract

This study is to develop a hiararchic clustering model for document classification and browsing in OPAC systems. Two automatic indexing techniques (with and without controlled terms), two term weighting methods (based on term frequency and binary weight), five similarity coefficients (Dice, Jaccard, Pearson, Cosine, and Squared Euclidean), and three hierarchic clustering algorithms (Between Average Linkage, Within Average Linkage, and Complete Linkage method) were tested on the document collection of 175 books and theses on library and information science. The best document clusters resulted from the Between Average Linkage or Complete Linkage method with Jaccard or Dice coefficient on the automatic indexing with controlled terms in binary vector. The clusters from Between Average Linkage with Jaccard has more likely decimal classification structure.

정보관리학회지