바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: domain analysis, 검색결과: 29
초록보기
초록

지적구조 분석을 위해 가중 네트워크를 시각화해야 하는 경우에 패스파인더 네트워크와 같은 링크 삭감 알고리즘이 널리 사용되고 있다. 이 연구에서는 네트워크 시각화를 위한 링크 삭감 알고리즘의 적합도를 측정하기 위한 지표로 NetRSQ를 제안하였다. NetRSQ는 개체간 연관성 데이터와 생성된 네트워크에서의 경로 길이 사이의 순위 상관도에 기반하여 네트워크의 적합도를 측정한다. NetRSQ의 타당성을 확인하기 위해서 몇 가지 네트워크 생성 방식에 대해 정성적으로 평가를 했었던 선행 연구의 데이터를 대상으로 시험적으로 NetRSQ를 측정해보았다. 그 결과 품질이 좋게 평가된 네트워크일수록 NetRSQ가 높게 측정됨을 확인하였다. 40가지 계량서지적 데이터에 대해서 4가지 링크 삭감 알고리즘을 적용한 결과에 대해서 NetRSQ로 품질을 측정하는 실험을 수행한 결과, 특정 알고리즘의 네트워크 표현 결과가 항상 좋은 품질을 보이는 것은 아니며, 반대로 항상 나쁜 품질을 보이는 것도 아님을 알 수 있었다. 따라서 이 연구에서 제안한 NetRSQ는 생성된 계량서지적 네트워크의 품질을 측정하여 최적의 기법을 선택하는 근거로 활용될 수 있을 것이다.

Abstract

Link reduction algorithms such as pathfinder network are the widely used methods to overcome problems with the visualization of weighted networks for knowledge domain analysis. This study proposed NetRSQ, an indicator to measure the goodness of fit of a link reduction algorithm for the network visualization. NetRSQ is developed to calculate the fitness of a network based on the rank correlation between the path length and the degree of association between entities. The validity of NetRSQ was investigated with data from previous research which qualitatively evaluated several network generation algorithms. As the primary test result, the higher degree of NetRSQ appeared in the network with better intellectual structures in the quality evaluation of networks built by various methods. The performance of 4 link reduction algorithms was tested in 40 datasets from various domains and compared with NetRSQ. The test shows that there is no specific link reduction algorithm that performs better over others in all cases. Therefore, the NetRSQ can be a useful tool as a basis of reliability to select the most fitting algorithm for the network visualization of intellectual structures.

초록보기
초록

본 연구는 문헌정보학 측면에서 국외 독서 및 독서교육 연구의 동향을 분석하고 향후의 연구과제를 제시하였다. 이를 위해 첫째, 문헌정보학 분야 국외 데이터베이스(LISTA)의 통제 키워드와 DDC 23판을 검토하여 독서 및 독서교육 관련 주요 연구 영역을 설정하였다. 둘째, 문헌정보학 분야 국외 데이터베이스(LISTA)에서 검색한 지난 100년(1914년~2014년) 동안의 독서 및 독서교육 관련 학술논문(2,115편)을 대상으로 지적구조 분석을 적용하여 연구동향을 분석하였다. 셋째, 이러한 연구동향 분석의 결과에 기초하여 독서 및 독서교육 분야의 향후 연구과제를 제시하였다.

Abstract

This study aims to analyse the research areas and trends of reading (reading instruction) abroad in the respect of LIS, and suggest future research tasks. First, I reviewed the controlled keywords in SU field of LISTA database and the entries of DDC 23, and identified the research areas of reading and reading instruction in overseas. Second, I analysed the research trends of this field by applying a intellectual structure analysis on 2,115 research articles (1914~2014) retrieved from a representative database in the areas of Library and Information Science (LISTA). Third, Based on the results of these analysis, I suggested the future research tasks of this field in the domain of library and information science.

초록보기
초록

최근 들어 다양한 분야에서 딥러닝이 혁신적인 기계학습 기법으로 급속하게 확산되고 있다. 이 연구에서는 딥러닝 연구동향을 분석하기 위해서 자아 중심 주제 인용분석 기법을 변형하여 응용해보았다. 이를 위해 Web of Science에서 ‘deep learning’으로 탐색하여 검색된 문헌 중 소수의 씨앗 문헌으로부터 인용 관계를 통해 분석 대상 문헌을 확보하는 방법을 시도하였다. 씨앗 문헌을 인용하는 최근 논문들을 딥러닝 분야의 현행 연구를 반영하는 자아 문헌집합으로 설정하였다. 자아 문헌으로부터 빈번히 인용된 선행 연구들은 딥러닝 분야의 연구 주제를 나타내는 인용 정체성 문헌집합으로 설정하였다. 자아 문헌집합에 대해서는 공저 네트워크 분석을 비롯한 정량적 분석을 실시하여 주요 국가와 연구 기관을 파악하였다. 인용 정체성 문헌들에 대해서는 동시인용 분석을 실시하고, 도출된 문헌 군집을 인용하는 주요 키워드인 인용 이미지 키워드를 파악하여 주요 문헌과 주요 연구 주제를 밝혀내었다. 마지막으로 특정 주제에 대한 인용 영향력이 성장하는 추세를 반영하는 인용 성장지수 CGI를 제안하고 측정하여 딥러닝 분야의 선도 연구 주제가 변화하는 동향을 밝혔다.

Abstract

Recently, deep learning has been rapidly spreading as an innovative machine learning technique in various domains. This study explored the research trends of deep learning via modified ego centered topic citation analysis. To do that, a few seed documents were selected from among the retrieved documents with the keyword ‘deep learning’ from Web of Science, and the related documents were obtained through citation relations. Those papers citing seed documents were set as ego documents reflecting current research in the field of deep learning. Preliminary studies cited frequently in the ego documents were set as the citation identity documents that represents the specific themes in the field of deep learning. For ego documents which are the result of current research activities, some quantitative analysis methods including co-authorship network analysis were performed to identify major countries and research institutes. For the citation identity documents, co-citation analysis was conducted, and key literatures and key research themes were identified by investigating the citation image keywords, which are major keywords those citing the citation identity document clusters. Finally, we proposed and measured the citation growth index which reflects the growth trend of the citation influence on a specific topic, and showed the changes in the leading research themes in the field of deep learning.

24
정힘찬(전북대학교) ; 김태영(전북대학교) ; 김용(전북대학교) ; 오효정(전북대학교) 2017, Vol.34, No.2, pp.137-158 https://doi.org/10.3743/KOSIM.2017.34.2.137
초록보기
초록

재난은 국민의 생명․신체․재산에 직접적인 영향을 미치는 사건으로, 재난 발생 시 신속하고 효과적인 대응을 위해서는 관련 정보들을 효율적으로 공유, 활용하는 협조 과정이 무엇보다도 중요하다. 현재 재난안전 유관기관별로 다양한 재난안전정보가 생산 및 관리되고 있지만, 각 기관별로 개별적인 용어와 의미를 정의하여 활용하고 있다. 이는 재난안전정보를 검색하고 접근하려는 실무자 입장에서 큰 걸림돌이며, 기관별 정보 활용도를 저해시키는 요인 중에 하나이다. 이러한 문제점을 해결하기 위해 재난안전정보의 통합적 관리를 위한 어휘자원의 표준화 작업의 선행 연구로, 본 연구에서는 재난안전 유관기관에서 관리하고 있는 어휘자원의 현황분석을 수행하였다. 또한 수집된 어휘자원을 대상으로 정보제공자 및 이용자 관점에서의 활용도 분석을 통해 어휘 그룹별 특성을 파악하고 이에 기반해 재난안전정보 관리를 위한 활용방안을 제안하였다.

Abstract

Disaster has a direct influence on the lives of the people, the body, and the property. For effective and rapid disaster responses, coordination process based on sharing and utilizing disaster information is the essential requirement Disaster and safety control agencies produce and manage heterogeneous information. They also develop and use word dictionaries individually. This is a major obstacle to retrieve and access disaster and safety information in terms of practitioners. To solve this problem, standardization of lexical resources related disaster and safety is essentially required. In this paper, we conducted current status analysis about lexical resources in disaster and safety domain. Consequently, we identified the characteristics according to lexical groups. And then we proposed the utilization plan of lexical resources for disaster and safety information management.

초록보기
초록

본 연구는 특정 영역 소규모 업무(Small Unit Operation) 수행을 지원하는 태스크 온톨로지 모형 개발에 관한 것이다. 기존 정보관리에서 효과적으로 진화된 지식시스템을 구축하기 위해서는 사전 작업인 온톨로지 개발이 필요하다. 대표적 SUO의 하나인 시민단체를 대상으로 선정하여 시민단체의 조직특성, 기대역할과 부진한 기능, 그리고 업무과정에서 발생되는 정보관리나 활용실태 등을 조사하였다. 그러나 온톨로지 구현의 기초 자료로 삼을 수 있는 시민운동이나 단체들에 대한 분류체계나 시소러스 등이 없는 상황에서 단체 특성 및 관련 업무 그리고 출판물 등의 생산정보나 사이트구성, 활동주제 및 내역 등의 기존 데이터만으로는 지식획득은 부족하다. 따라서 본 연구에서 채택된 모형 개발 방법론은 해당 분야 실무자 및 전문가와의 심도 높은 면담과 관찰이며 이를 통해 현장실무의 업무처리 과정에서 발생하는 지식을 추출하고 정보의 흐름 구조를 파악하여 그를 기반으로 시민단체의 역할 수행을 지원하는 태스크 온톨로지 모형을 구현하였다.

Abstract

This paper presents a model of Task-Ontology for small unit operations(SUO) such as non-government organizations. Despite the rapid development and extension of NGOs in domestic area, most has insufficient structural domain resources in existence and underestimates the importance of information management. To improve the citizen's participation and to activate the conjoint actions among the NGOs, which are critical to its social role-playing in global society, the modeling Task-Ontology is ultimately intended to implement the knowledge management system of NGO. In the perspective of ontology competency, not only the analysis of resources in vary, but also in-depth interviews with the NGO's practicing personnels and subject experts, and also the intensive observations of task-processing are required for the knowledge acquisition.

26
최예진(이화여자대학교 문헌정보학과) ; 정연경(이화여자대학교) 2016, Vol.33, No.3, pp.63-83 https://doi.org/10.3743/KOSIM.2016.33.3.063
초록보기
초록

다양한 매체와 유형으로 생산되는 정보자원에 대한 이용이 높아짐에 따라, 정보자원을 기술하기 위한 정보조직의 도구로서 메타데이터에 대한 중요성이 높아지고 있다. 본 연구에서는 메타데이터 분야의 연구 영역을 파악할 수 있도록 동시출현단어 분석을 사용하여 메타데이터 분야의 지적 구조를 규명하고자 하였다. 이를 위하여 1998년 1월 1일부터 2016년 7월 8일까지 Web of Science 핵심컬렉션에 등재된 저널에 게재된 문헌을 대상으로 ‘metadata’라는 질의어로 Topic 검색을 수행하여, 총 727건의 논문에 대한 서지정보를 수집하였다. 이 중 저자 키워드를 가진 410건의 논문의 저자 키워드로 수집하고, 전처리 과정을 거쳐 저자 키워드 총 1,137개를 추출하여 최종적으로 빈도수 6회 이상의 키워드 37개를 분석대상으로 선정하였다. 이후 메타데이터 분야의 지적구조 규명을 위해 첫째, 네트워크 분석을 통하여 2개 영역 9개 군집을 도출하였으며, 메타데이터 분야 키워드들의 지적 관계를 시각화하고, 중심성 분석을 통한 전역 중심 키워드와 지역 중심이 높은 키워드를 제시하였다. 둘째, 군집분석을 실시하여 형성된 6개의 군집을 다차원축적지도상에 표시하였으며, 각 키워드들 간의 상관관계에 따른 지적구조를 제시하였다. 이러한 연구의 결과는 메타데이터 분야의 지적구조를 시각적으로 파악할 수 있게 하며, 향후 메타데이터 관련 교육과 연구의 방향성 모색에 유용하게 사용될 수 있을 것이다.

Abstract

As the usage of information resources produced in various media and forms has been increased, the importance of metadata as a tool of information organization to describe the information resources becomes increasingly crucial. The purposes of this study are to analyze and to demonstrate the intellectual structure in the field of metadata through co-word analysis. The data set was collected from the journals which were registered in the Core collection of Web of Science citation database during the period from January 1, 1998 to July 8, 2016. Among them, the bibliographic data from 727 journals was collected using Topic category search with the query word ‘metadata’. From 727 journal articles, 410 journals with author keywords were selected and after data preprocessing, 1,137 author keywords were extracted. Finally, a total of 37 final keywords which had more than 6 frequency were selected for analysis. In order to demonstrate the intellectual structure of metadata field, network analysis was conducted. As a result, 2 domains and 9 clusters were derived, and intellectual relations among keywords from metadata field were visualized, and proposed keywords with high global centrality and local centrality. Six clusters from cluster analysis were shown in the map of multidimensional scaling, and the knowledge structure was proposed based on the correlations among each keywords. The results of this study are expected to help to understand the intellectual structure of metadata field through visualization and to guide directions in new approaches of metadata related studies.

초록보기
초록

본 연구에서는 개관 이래 지난 10여 년간 경기도 내 공공도서관의 발전의 중심 역할을 담당해 온 경기도사이버도서관 설립을 위한 의제설정 및 정책형성과정을 킹던(Kingdon)의 정책흐름모형을 적용하여 분석하였다. 킹던에 의하면 정책 형성은 문제의 흐름, 정책대안의 흐름 그리고 정치 흐름의 결합의 결과이며, 세 흐름이 결합될 때 열린 정책의 창을 통해 정책이슈가 정책의제로 나아간다. 이 때 정책선도자는 정책의 창에서 선호하는 대안을 제시하고 그것이 정책의 창을 통과하도록 노력한다. 본 연구에서는 경기도사이버도서관 정책의 의제설정과 대안의 선택 과정에서 문제의 흐름, 정치의 흐름, 그리고 정책의 흐름을 분석하고 정책의 창에서 정책선도자로서의 사서전문가집단이 어떤 역할을 했는지 분석하였다. 이러한 분석을 통해 정책형성과정의 메커니즘을 밝힘으로써 사서전문가집단이 앞으로의 도서관 정책형성과정에서 적용할 수 있는 시사점을 제시하였다.

Abstract

In this study, we analyze the agenda setting and policy making process of the establishment of Gyeonggido Cyber Library, which has played an important role for development of public libraries in Gyeonggido since its launching, based on Kingdon’s policy streams model. According to the model, policy formation is described as the result from the convergence of the three streams, such as problem, policy and politics streams. When these streams converge on a specific time point, a policy window is created so that the issues become policy agenda. At this moment, policy entrepreneurs propose their alternatives, which have been prepared already, and try to pass it through the window. We identify coupling of the streams in the policy window and the role of policy entrepreneurs in the process of agenda setting and selection of alternatives of Gyeonggido Cyber Library policy. Suggestions are provided based on the analysis for public policy formation in public libraries domain.

28
김현희(명지대학교) ; 안태경(대외경제정책연구원) 2003, Vol.20, No.1, pp.417-455 https://doi.org/10.3743/KOSIM.2003.20.1.417
초록보기
초록

온톨로지는 웹자원을 지식화함으로써 정보의 효율적 검색, 통합, 재사용을 도모할 수 있는 새로운 기술인 시맨틱 웹의 구현을 위한 가장 핵심적인 요소 기술로 알려지고 있다. 온톨로지는 사람간에 그리고 서로 다른 응용 시스템간에 지식을 공유하고 재이용하는 방법을 제공하는 기술로서 특정 주제에 관한 지식 용어들의 집합으로서 이들 용어뿐만 아니라 용어간의 의미적 연결 관계와 간단한 추론 규칙을 포함한다. 본 연구에서는 인터넷 웹상에서 국제기구에 관한 정보를 체계적으로 관리하고 검색하기 위해서 국제기구 온톨로지를 설계하고 이 온톨로지에 기반 하여 검색 시스템을 구현해 보고, 이 시스템을 20개의 탐색 질문들을 이용하여 기존의 인터넷 검색엔진과 적합성과 탐색 시간이라는 두 가지 요인을 통해서 비교해 보았다. 실험 결과에 의하면 적합성 측정은 온톨로지 기반 시스템은 평균 4.53, 인터넷 검색엔진은 평균 2.51로 온톨로지 기반 시스템의 적합도가 1.80배 높은 것으로 나타났다. 또한 탐색시간은 온톨로지 기반 시스템은 평균 1.96분, 인터넷 검색엔진은 평균 4.74분으로 인터넷 검색엔진이 온톨로지 기반 시스템 보다 2.42배 정도 더 많은 탐색시간이 필요한 것으로 나타났다.

Abstract

Ontologies are formal theories that are suitable for implementing the semantic web, which is a new technology that attempts to achieve effective retrieval, integration, and reuse of web resources. Ontologies provide a way of sharing and reusing knowledge among people and heterogeneous applications systems. The role of ontologies is that of making explicit specified conceptualizations. In this context, domain and generic ontologies can be shared, reused, and integrated in the analysis and design stage of information and knowledge systems. This study aims to design an ontology for international organizations, and build an Internet web retrieval system based on the proposed ontology, and finally conduct an experiment to compare the system performance of the proposed system with that of Internet search engines focusing relevance and searching time. This study found that average relevance of ontology- based searching and Internet search engines are 4.53 and 2.51, and average searching time of ontology-based searching and Internet search engines are 1.96 minutes and 4.74 minutes.

초록보기
초록

디지털 도서관을 통해 제공되는 정보 자원의 형태와 종류가 다양화됨에 따라 자료의 유형별로 적정 수준의 메타데이터를 정의하고 제공하는 것이 또 다른 과제로 대두되고 있다. 일반 텍스트 자료와 달리 수치로 표현된 데이터에 대한 해석을 필요로 하는 통계 자료의 특성상, 통계 도메인에서 메타데이터는 통계 자료의 검색뿐 아니라 검색된 자료의 정확한 이해와 활용을 위한 필수적인 도구로 인식되고 있다. 하지만 기존의 통계 메타데이터 연구는 통계 작성 기관이나 분석 기관의 전문적인 요구에 중점을 두고 있어, 인터넷을 통해 통계 자료에 접근하는 일반 이용자들의 관점에서의 논의는 상대적으로 부족한 실정이다.일반 이용자를 위한 통계 메타데이터에 대한 논의의 단초로서, 본 연구는 미국의 연방 통계 기관인 the Bureau of Labor Statistics (BLS, HYPERLINK "http://www.bls.gov/" http://www.bls.gov/) 및 the Energy Information Administration (EIA, HYPERLINK "http://www.eia.doe.gov/" http://www.eia.doe.gov/)의 웹사이트에 대한 내용 분석을 통해, 현재 인터넷을 통해 통계 자료에 접근하는 이용자들에게 제공되고 있는 메타데이터의 현황을 평가하였다. 본 사례 연구의 결과는 이들 웹사이트를 통해 제공되는 방대한 양의 자료에도 불구하고 메타데이터의 제공 수준은 국제 기구에 의해 정의된 최소 수준에 미치지 못함을 나타내고 있어,이용자 중심의 메타데이터 설계의 필요성을 재확인 하고 있다.

Abstract

As increasingly diverse kinds of information materials are available on the Internet, it becomes a challenge to define an adequate level of metadata provision for each different type of material in the context of digital libraries. This study explores issues of metadata provision for a particular type of material, statistical tables. Statistical data always involves numbers and numeric values which should be interpreted with an understanding of underlying concepts and constructs. Because of the unique data characteristics, metadata in the statistical domain is essential not only for finding and discovering relevant data, but also for understanding and using the data found. However, in statistical metadata research, more emphasis has been put on the question of what metadata is necessary for processing the data and less on what metadata should be presented to users.In this study, a case study was conducted to gauge the status of metadata provision for statistical tables on the Internet. The websites of two federal statistical agencies in the United States were selected and a content analysis method was used for that purpose. The result showing insufficient and inconsistent provision of metadata demonstrate the need for more discussions on statistical metadata from the ordinary web users’ perspective.

정보관리학회지