바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: performance measurement, 검색결과: 36
초록보기
초록

본 연구에서 제안하는 기법은 최대 개념강도 인지기법(Maximal Concept-Strength Recognition Method: MCR)이다. 신규 데이터베이스가 입수되어 자동분류가 필요한 경우에, 기 구축된 여러 데이터베이스 중에서 최적의 데이터베이스가 어떤 것인지 알 수 없는 상태에서 MCR 기법은 가장 유사한 데이터베이스를 선택할 수 있는 방법을 제공한다. 실험을 위해 서로 다른 4개의 학술 데이터베이스 환경을 구성하고 MCR 기법을 이용하여 최고의 성능값을 측정하였다. 실험 결과, MCR을 이용하여 최적의 데이터베이스를 정확히 선택할 수 있었으며 MCR을 이용한 자동분류 정확률도 최고치에 근접하는 결과를 보여주었다.

Abstract

The proposed method in this study is the Maximal Concept-Strength Recognition Method(MCR). In case that we don't know which database is the most suitable for automatic-classification when new database is imported, MCR method can support to select the most similar database among many databases in the legacy system. For experiments, we constructed four heterogeneous scholarly databases and measured the best performance with MCR method. In result, we retrieved the exact database expected and the precision value of MCR based automatic-classification was close to the best performance.

초록보기
초록

국내 문헌정보학 분야에서 10년간 발표된 논문의 저자와 인용빈도를 대상으로 공저 네트워크에서의 중심성과 연구성과 지수 사이의 관계를 분석하였다. 특히 공저를 고려하지 않고 연구성과 지수를 산출하는 경우와 공저를 고려하여 연구성과 지수를 산출하는 경우로 나누어서 분석하였다. 또한 저자 집단을 논문 수에 따라 다르게 설정하여 지수 사이의 상관관계를 분석한 결과, 연구자의 인용지수와 연구자 중심성 사이의 상관관계에 대한 선행 연구의 일관성없는 결과를 설명해낼 수 있었다. 전체적으로 공저 활동의 정도는 연구성과와 상관관계가 유의하지 않았으며 일부에서는 오히려 부정적인 상관관계를 가진 것으로 나타났다. 중심성과 연구성과 사이의 관계는 통계적으로 유의한 긍정적인 상관관계가 나타났으나 상위 저자 30명만을 대상으로 분석한 결과에서는 상관관계가 유의하지 않았다.

Abstract

We analyzed the relationships between the co-authorship network centralities and the research performance indicators with the authors and the number of citations of the papers published for 10 years in Korean library and information science journals. In particular, the research performance indicators were calculated with normal counting and with fractional counting also. As a result of correlation analysis between the variables by setting the different ranges of the author groups to be analyzed according to the number of articles, it was possible to explain the inconsistent results of the previous studies on the correlations between the researchers' citation indicators and their co-authorship network centralities. Overall, the degree of co-authorship activities measured by collaboration coefficient showed no or negatively correlated with research performance. There were statistically significant positive correlations between the centralities and the research performance indicators, but the correlation was not significant in the analysis of the top 30 authors by number of articles.

13
김완종(한국과학기술정보연구원) ; 김혜선(한국과학기술정보연구원) ; 이혜진(한국과학기술정보연구원) 2013, Vol.30, No.2, pp.101-118 https://doi.org/10.3743/KOSIM.2013.30.2.101
초록보기
초록

본 연구에서는 과학기술분야 온라인 정보서비스를 대상으로 사용자가 만족하는 정도를 기대불일치 이론의 관점에서 규명하고자 하였다. 이를 위해 한국과학기술정보연구원에서 제공하고 있는 과학기술정보 서비스 사이트인 NDSL의 서비스 품질 측정 모형인 NDSLQual을 사용하였다. 분석 결과를 요약하면 첫째, NDSL 서비스 품질에 대한 기대가 기대불일치와 지각된 성과에 미치는 영향 관계를 알아본 결과, 기대불일치에는 부(-)의 영향을 미치는 것으로 나타났으며, 지각된 성과에는 정(+)의 영향을 미치는 것으로 나타났다. 또한 NDSL 서비스 품질에 대한 지각된 성과는 기대불일치에 정(+)의 영향을 미치는 것으로 나타났다. 둘째, 기대불일치가 전반적 이용자 만족도와 충성도에 미치는 영향 관계를 알아본 결과, 기대불일치는 전반적 이용자 만족도와 충성도에 모두 정(+)의 영향을 미치는 것으로 나타났다. 하지만 두 가지 회귀 모형에 대한 설명력은 매우 낮았다. 셋째, NDSL 서비스 품질에 대한 지각된 성과가 전반적 만족도와 충성도에 미치는 영향 관계를 알아본 결과, NDSL 서비스 품질에 대한 지각된 성과가 전반적 만족도와 충성도에 모두 정(+)의 영향을 미치는 것으로 나타났다. 연구 결과, NDSL에 대한 전반적인 이용자 만족도와 충성도를 더 높이기 위해서는 NDSL 서비스 품질에 대한 지각된 성과는 높이고, 기대불일치를 낮추기 위한 방안을 모색해야 할 것으로 보인다.

Abstract

The purpose of this study is to reveal their satisfaction procedures from users of information service expectation-disconfirmation theory. To achieve this goal, we use the NDSLQual model to measure the quality of NDSL service. The results were as follows: First, while the expectation has a negative effect on the expectation-disconfirmation, it has a positive effect on the perceived performance. And perceived performance has a positive effect on the expectation-disconfirmation. Second, the expectation-disconfirmation has a positive effect on the overall satisfaction and loyalty. However the explanatory adequacy of the regression model is very low. Third, perceived performance has a positive effect on the overall satisfaction and loyalty. In order to increase the overall satisfaction and loyalty for NDSL, it is necessary to seek ways to improve the perceived performance and lower the expectation-disconfirmation.

14
박진호(주식회사 리스트 사업개발본부장) ; 고영만(성균관대학교 문과대학 문헌정보학과 교수) ; 김현수(성균관대학교 정보관리연구소 연구원) 2019, Vol.36, No.4, pp.129-159 https://doi.org/10.3743/kosim.pub.36.4.129001
초록보기
초록

본 연구의 목적은 연구데이터 서비스 자체의 유용성과 연구데이터에 대한 사용경험 기반의 유용성 측면에서 평가 모형을 개발하는 것이다. 다양한 사례에서 도출한 데이터 서비스의 유용성 평가 요소로부터 연구데이터에 내재된 평가척도인 검색성, 접근성, 상호운용성, 재활용성 4개와 각각의 측정지표 총 20개를 도출하였다. 그리고 Google Analytics, YouTube 광고료 책정 기준, 서울특별시, Altmetrics의 사례를 분석하여 연구데이터에 대한 이용자 경험 기반의 유용성 측정지표 12개를 도출하였다. 평가척도와 측정지표에 대한 타당성과 신뢰성 검정을 위해 연구데이터의 잠재적 이용자 164명을 대상으로 설문조사를 실시하였다. 평가척도의 타당성 검정을 위해 KMO Bartlett 분석을 하였으며, 측정지표의 성분분석을 위해 주성분 분석과 베리맥스 회전분석법을 사용하였다. 내재적 평가척도의 경우 4개 척도 모두 KMO Bartlett의 타당성 값을 충족시켰으며, 평가척도에 대한 측정지표의 성분분석 결과 모두 단일 성분으로 나타나 현재의 척도로 해당 지표에 대한 설명이 가능하였다. 그러나 이용자 경험 기반의 12개 측정지표의 성분분석 결과는 2개 성분으로 나누어지는 것으로 나타나 각각을 활용도와 참여도라는 개념의 2개 평가척도로 구분하였다. Cronbach’s alpha 계수에 의한 신뢰도 측정 결과 6개의 평가척도 모두 0.6 이상의 측정치를 충족시키는 것으로 나타났다.

Abstract

The Purpose of this study is to develop an evaluation model for usability of research data service from the angles of evaluating usefulness of research data service itself and research data use experience-based usability. First, the various cases of evaluating usability of data services are examined and 4 rating scales and 20 measuring indicators for research data service are derived as a result of comparative analysis. In order to verify validity and reliability of the rating scale and the measuring indicators, the study conducted a survey of 164 potential research data users. KMO Bartlett Analysis was performed for validity test, and Principle Component Analysis and Verimax Rotating Method were used for component analysis on measuring indicators. The result shows that the 4 intrinsic rating scales satisfy the validity criteria of KMO Barlett; A single component was determined from component analysis, which verifies the validity of measuring indicators of the current rating scale. However, the result of 12 user experience-based measuring indicators analysis identified 2 components that are each classified as rating scale of utilization level and that of participation level. Cronbach’s alpha of all 6 rating scales was 0.6 or more for the overall scale.

15
정영미(연세대학교) ; 김용광(연세대학교) 2008, Vol.25, No.4, pp.227-243 https://doi.org/10.3743/KOSIM.2008.25.4.227
초록보기
초록

이 연구에서는 사건중심 뉴스기사 요약문을 자동생성하기 위해 뉴스기사들을 SVM 분류기를 이용하여 사건 주제범주로 먼저 분류한 후, 각 주제범주 내에서 싱글패스 클러스터링 알고리즘을 통해 특정한 사건 관련 기사들을 탐지하는 기법을 제안하였다. 사건탐지 성능을 높이기 위해 고유명사에 가중치를 부여하고, 뉴스의 발생시간을 고려한 시간벌점함수를 제안하였다. 또한 일정 규모 이상의 클러스터를 분할하여 적절한 크기의 사건 클러스터를 생성하도록 수정된 싱글패스 알고리즘을 사용하였다. 이 연구에서 제안한 사건탐지 기법의 성능은 단순 싱글패스 클러스터링 기법에 비해 정확률, 재현율, F-척도에서 각각 37.1%, 0.1%, 35.4%의 성능 향상률을 보였고, 오보율과 탐지비용에서는 각각 74.7%, 11.3%의 향상률을 나타냈다.

Abstract

This study investigates an event detection method with the aim of generating an event-focused news summary from a set of news articles on a certain event using a multi-document summarization technique. The event detection method first classifies news articles into the event related topic categories by employing a SVM classifier and then creates event clusters containing news articles on an event by a modified single pass clustering algorithm. The clustering algorithm applies a time penalty function as well as cluster partitioning to enhance the clustering performance. It was found that the event detection method proposed in this study showed a satisfactory performance in terms of both the F-measure and the detection cost.

16
김성훈(성균관대학교) ; 도슬기(성균관대학교 문헌정보학과) ; 한상은(카이스트 디지털인문사회과학센터) ; 김재훈(한국과학기술정보연구원) ; 임석종(한국과학기술정보연구원) ; 박진호(한성대학교) 2022, Vol.39, No.4, pp.269-306 https://doi.org/10.3743/KOSIM.2022.39.4.269
초록보기
초록

본 연구는 성숙도 모델 개념을 활용하여 디지털 전환 성과를 측정할 수 있는 지표 개발을 시도하였다. 디지털 전환을 위해서는 단순한 서비스 개선이 아니라 조직, 업무 변화까지를 고려할 필요가 있다. 여기서는 우리나라의 대표적인 과학기술정보서비스 기관인 KISTI의 디지털 전환 측정을 위한 모델 개발을 목표로 하였다. KSITI는 이미 디지털 전환을 위한 BPR 작업을 수행한 바 있으며, 성숙도 모델 개념을 차용하였다. 단, BPR에서는 해당 결과를 측정할 수 있는 방법은 존재하지 않는다. 본 논문에서는 성숙모 모델을 기반으로 디지털 전환을 측정할 수 있는 지표를 개발하였다. 지표개발은 모델 개발과 평가 두 가지 방법으로 수행하였다. 모델 구성을 위한 사례는 기존 KISTI에서 수행한 관련 연구, 다양한 국내․외 사례를 통해 이루어졌다. 검증 전 모델은 대분류를 기준으로 기술(37개), 데이터(45개), 전략(18개), 조직(인력)(36개), (사회적)영향력(14개)이었다. 검증 후에 최종 모델은 기술(20개/17개 지표 탈락), 데이터(36개/9개 지표 탈락), 전략(18개/유지), 조직(인력)(30개/6개 지표 탈락), (사회적)영향력(13개/1개 지표 탈락)으로 구성되었다.

Abstract

This study aimed to develop indicators that can measure the digital transformation performance of science and technology information construction and sharing systems by utilizing the Digital Curation Maturity Models. For digital transformation, it is necessary to consider not only simple service improvement but also organizational and business changes. In this study, we aimed to develop a model for measuring the digital transformation of KISTI, Korea’s representative science and technology information service organization. KISTI has already carried out BPR work for digital transformation and borrowed the concept of a maturity model. However, in BPR, there is no method to measure the result. Therefore, in this paper, we developed an index to measure digital transformation based on the maturity model. Indicator development was carried out in two ways: model development and evaluation. Cases for model construction were made through a comprehensive review of existing KISTI and various domestic and foreign cases. The models before verification were technology (37), data (45), strategy (18), organization (36), and (social)influence (14) based on the major categories. After verification using confirmatory factor analysis, the model is classified as technology (20 / 17 indicators dropped), data (36 / 9 indicators dropped), strategy (18 / maintenance), organization(30 / 6 indicators dropped), and (social) influence (13 indicators / 1 indicator dropped).

17
김완종(한국과학기술정보연구원) ; 김혜선(한국과학기술정보연구원) ; 현미환(한국과학기술정보연구원) 2013, Vol.30, No.3, pp.207-228 https://doi.org/10.3743/KOSIM.2013.30.3.207
초록보기
초록

본 연구는 온라인 과학기술정보 서비스 품질에 대한 기대수준과 성과에 대한 지각수준이 이용자 만족도와 충성도에 어떠한 영향을 미치는가를 분석하고자 하였다. 이를 위해 한국과학기술정보연구원에서 제공하고 있는 온라인 과학기술정보 서비스인 NDSL의 서비스 품질 측정 모형인 NDSLQual을 사용하여 조사 및 분석을 실시하였다. 분석 결과, 첫째, 일곱 가지 기대 요인 가운데 신뢰성, 편리성, 시스템사용성, 정보품질의 네 가지 요인이 이용자 만족도에 유의한 정(+)의 영향을 미치는 것으로 나타났다. 둘째, 일곱 가지 기대 요인 가운데 충성도에 유의한 부(-)의 영향을 미치는 서비스문제해결을 제외한 신뢰성, 편리성, 시스템사용성, 대응성, 보안, 정보품질의 여섯 가지 요인은 모두 충성도에 유의한 정(+)의 영향을 미치는 것으로 나타났다. 셋째, 일곱 가지 성과에 대한 지각 요인 가운데 신뢰성, 편리성, 정보품질의 세 가지 요인이 이용자 만족도에 유의한 정(+)의 영향을 미치는 것으로 나타났다. 넷째, 일곱 가지 성과에 대한 지각 요인 가운데 신뢰성, 편리성, 정보품질의 세 가지 요인이 충성도에 유의한 정(+)의 영향을 미치는 것으로 나타났다. 연구 결과, 일곱 가지 서비스 요인 가운데 정보품질, 신뢰성, 편리성에 대한 기대수준과 성과에 대한 지각수준이 NDSL의 이용자 만족도와 충성도를 높일 수 있는 공통 요인으로 나타났다.

Abstract

The purpose of this study is to reveal the influence of the expectation and perceived performance of the online science & technology information service quality on user satisfaction and royalty. To achieve this goal, we use the NDSLQual model to measure the quality of NDSL service. The results were as follows: First, among seven expectation factors, four factors (reliability, convenience, system usability and information quality) had a positive effect on the user satisfaction. Second, while service recovery had a negative effect on the royalty, the other six factors (reliability, convenience, system usability, responsiveness, security and information quality) had a positive effect on the royalty. Third, among seven perceived performance factors, three factors (reliability, convenience and information quality) had a positive effect on the user satisfaction. Fourth, among seven perceived performance factors, three factors (reliability, convenience and information quality) had a positive effect on the royalty. As a result, information quality, reliability and convenience of the expectation and perceived performance are common factors influencing user satisfaction and royalty.

초록보기
초록

본 연구는 실재 시스템 환경에서 문헌 분류를 위해 범주화 기법을 적용할 경우, 범주화 성능이 어느 정도이며, 적정한 문헌범주화 성능의 달성을 위하여 분류기 학습에 필요한 범주당 가장 이상적인 학습문헌집합의 규모는 무엇인가를 파악하기 위하여 kNN 분류기를 사용하여 실험하였다. 실험문헌집단으로15만 여건의 실제 서비스되는 데이터베이스에서 2,556건 이상의 문헌을 가진 8개 범주를 선정하였다. 이들을 대상으로 범주당 학습문헌수 20개(Tr20)에서 2,000개(Tr2000)까지 단계별로 증가시키며 8개 학습문헌집합 규모를 갖도록 하위문헌집단을 구성한 후, 학습문헌집합 규모에 따른 하위문헌집단 간 범주화 성능을 비교하였다. 8개 하위문헌집단의 거시평균 성능은 F1 값 30%로 선행연구에서 발견된 kNN 분류기의 일반적인 성능에 미치지 못하는 낮은 성능을 보였다. 실험을 수행한 8개 대상문헌집단 중 학습문헌수가 100개인 Tr100 문헌집단이 F1 값 31%로 비용대 효과면에서 분류기 학습에 필요한 최적정의 실험문헌집합수로 판단되었다. 또한, 실험문헌집단에 부여된 주제범주 정확도를 수작업 재분류를 통하여 확인한 후, 이들의 범주별 범주화 성능과 관련성을 기반으로 위 결론의 신빙성을 높였다.

Abstract

This paper examines a level of categorization performance in a reallife collection of abstract articles in the fields of science and technology, and tests the optimal size of documents per category in a training set using a kNN classifier. The corpus is built by choosing categories that hold more than 2,556 documents first, and then 2,556 documents per category are randomly selected. It is further divided into eight subsets of different size of training documents: each set is randomly selected to build training documents ranging from 20 documents (Tr20) to 2,000 documents (Tr2000) per category. The categorization performances of the 8 subsets are compared. The average performance of the eight subsets is 30% in F1 measure which is relatively poor compared to the findings of previous studies. The experimental results suggest that among the eight subsets the Tr100 appears to be the most optimal size for training a kNN classifier. In addition, the correctness of subject categories assigned to the training sets is probed by manually reclassifying the training sets in order to support the above conclusion by establishing a relation between and the correctness and categorization performance.

19
이종욱(한국과학기술정보연구원) ; Yang, Kiduk(경북대학교) 2011, Vol.28, No.4, pp.119-140 https://doi.org/10.3743/KOSIM.2011.28.4.119
초록보기
초록

교수연구업적을 보다 효과적으로 평가하기 위해서는 연구의 정량 및 정성적 측면을 고려하여야 한다. 본 연구에서는 연구의 양적 측면을 보여주는 논문 수와 질적 측면을 반영하는 피인용 수에 의한 국내 문헌정보학과 교수의 연구업적 평가순위를 국내 대학에서 사용되는 연구업적 평가규정을 적용한 순위와 비교․분석하였다. 연구결과, 논문 수에 의한 교수별 순위가 피인용 수에 의한 순위와 차이가 있으며, 대학별 교수 업적평가는 피인용 수보다는 논문 수에 의한 평가와 가까운 것으로 나타났다. 또한 대학별 상이한 논문 배점기준은 교수업적평가 결과에 별다른 영향을 끼치지 않았다. 향후 연구에서는 연구의 양적 및 질적 수준을 보다 잘 반영하는 계량서지학적 지표에 관한 연구가 진행되어야 할 것으로 본다.

Abstract

Effective assessment of faculty research performance should involve considerations of both quality and quantity of faculty research. This study analyzed methods for evaluating faculty research output by comparing the rankings of Library and Information Science(LIS) faculty by publication counts, citation counts, and research performance assessment guidelines employed by Korean universities. The study results indicated that faculty rankings based on publication counts to be significantly different from those based on citation counts. Additionally, faculty rankings measured by university guidelines showed bigger correlations with rankings based on publication counts than rankings by citation counts, while differences in universities guidelines did not significantly affect the faculty rankings. The study findings suggest the need for bibliometric indicators that reflect the quality as well as the quantity of research output.

20
Yang, Kiduk(경북대학교) ; Lokman Meho(American University of Beirut, Lebanon) 2011, Vol.28, No.2, pp.79-96 https://doi.org/10.3743/KOSIM.2011.28.2.079
초록보기
초록

Abstract

Despite the widespread use, critics claim that citation analysis has serious limitations in evaluating the research performance of scholars. First, conventional citation analysis methods yield one-dimensional and sometimes misleading evaluation as a result of not taking into account differences in citation quality, not filtering out citation noise such as self-citations, and not considering non-numeric aspects of citations such as language, culture, and time. Second, the citation database coverage of today is disjoint and incomplete, which can result in conflicting quality assessment outcomes across different data sources. This paper discuss the findings from a citation analysis study that measured the impact of scholarly publications based on the data mined from Web of Science, Scopus, and Google Scholar, and briefly describes a work-in-progress prototype system called CiteSearch, which is designed to overcome the weaknesses of existing citation analysis methods with a robust citation-based quality assessment approach.

정보관리학회지