바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 검색도구, 검색결과: 19
초록보기
초록

디지털 도서관을 통해 제공되는 정보 자원의 형태와 종류가 다양화됨에 따라 자료의 유형별로 적정 수준의 메타데이터를 정의하고 제공하는 것이 또 다른 과제로 대두되고 있다. 일반 텍스트 자료와 달리 수치로 표현된 데이터에 대한 해석을 필요로 하는 통계 자료의 특성상, 통계 도메인에서 메타데이터는 통계 자료의 검색뿐 아니라 검색된 자료의 정확한 이해와 활용을 위한 필수적인 도구로 인식되고 있다. 하지만 기존의 통계 메타데이터 연구는 통계 작성 기관이나 분석 기관의 전문적인 요구에 중점을 두고 있어, 인터넷을 통해 통계 자료에 접근하는 일반 이용자들의 관점에서의 논의는 상대적으로 부족한 실정이다.일반 이용자를 위한 통계 메타데이터에 대한 논의의 단초로서, 본 연구는 미국의 연방 통계 기관인 the Bureau of Labor Statistics (BLS, HYPERLINK "http://www.bls.gov/" http://www.bls.gov/) 및 the Energy Information Administration (EIA, HYPERLINK "http://www.eia.doe.gov/" http://www.eia.doe.gov/)의 웹사이트에 대한 내용 분석을 통해, 현재 인터넷을 통해 통계 자료에 접근하는 이용자들에게 제공되고 있는 메타데이터의 현황을 평가하였다. 본 사례 연구의 결과는 이들 웹사이트를 통해 제공되는 방대한 양의 자료에도 불구하고 메타데이터의 제공 수준은 국제 기구에 의해 정의된 최소 수준에 미치지 못함을 나타내고 있어,이용자 중심의 메타데이터 설계의 필요성을 재확인 하고 있다.

Abstract

As increasingly diverse kinds of information materials are available on the Internet, it becomes a challenge to define an adequate level of metadata provision for each different type of material in the context of digital libraries. This study explores issues of metadata provision for a particular type of material, statistical tables. Statistical data always involves numbers and numeric values which should be interpreted with an understanding of underlying concepts and constructs. Because of the unique data characteristics, metadata in the statistical domain is essential not only for finding and discovering relevant data, but also for understanding and using the data found. However, in statistical metadata research, more emphasis has been put on the question of what metadata is necessary for processing the data and less on what metadata should be presented to users.In this study, a case study was conducted to gauge the status of metadata provision for statistical tables on the Internet. The websites of two federal statistical agencies in the United States were selected and a content analysis method was used for that purpose. The result showing insufficient and inconsistent provision of metadata demonstrate the need for more discussions on statistical metadata from the ordinary web users’ perspective.

12
진설아(연세대학교) ; 허고은(연세대학교) ; 정유경(연세대학교) ; 송민(연세대학교) 2013, Vol.30, No.1, pp.285-302 https://doi.org/10.3743/KOSIM.2013.30.1.285
초록보기
초록

본 연구는 높은 접근성과 간결성으로 인해 방대한 양의 텍스트를 생산하는 트위터 데이터를 분석하여 토픽의 변화 시점 및 패턴을 파악하였다. 먼저 특정 상품명에 관한 키워드를 추출한 후, 동시출현단어분석(Co-word Analysis)을 이용하여 노드와 에지를 통해 토픽과 관련 키워드를 직관적으로 파악 가능한 네트워크로 표현하였다. 이후 네트워크 분석 결과를 검증하기 위해 출현빈도 기반의 시계열 분석과 LDA 토픽 모델링을 실시하였다. 또한 트위터 상의 토픽 변화와 언론 기사 검색결과를 비교한 결과, 트위터는 언론 뉴스에 즉각적으로 반응하며 부정적 이슈를 빠르게 확산시키는 것을 확인하였다. 이를 통해 기업은 대중의 부정적 의견을 신속하게 파악하고 이에 대한 즉각적인 의사결정 및 대응을 위한 도구로 본 연구방법을 활용할 수 있을 것으로 기대된다.

Abstract

This study identified topic shifts and patterns over time by analyzing an enormous amount of Twitter data whose characteristics are high accessibility and briefness. First, we extracted keywords for a certain product and used them for representing the topic network allows for intuitive understanding of keywords associated with topics by nodes and edges by co-word analysis. We conducted temporal analysis of term co-occurrence as well as topic modeling to examine the results of network analysis. In addition, the results of comparing topic shifts on Twitter with the corresponding retrieval results from newspapers confirm that Twitter makes immediate responses to news media and spreads the negative issues out quickly. Our findings may suggest that companies utilize the proposed technique to identify public’s negative opinions as quickly as possible and to apply for the timely decision making and effective responses to their customers.

13
이정연(Universitas Indonesia) ; 정은경(이화여자대학교) ; 권나현(명지대학교) 2012, Vol.29, No.3, pp.99-122 https://doi.org/10.3743/KOSIM.2012.29.3.099
초록보기
초록

본 연구는 과학기술분야 R&D 라이프사이클 각 단계 세부연구 목표를 달성하는 과정에서 이루어지는 정보행동(정보요구, 정보검색, 정보도구, 정보채널, 정보장애)을 과학기술커뮤니티 환경의 맥락에서 분석하였다. 이 연구는 의미형성이론, 일상생활정보탐색이론, 활동이론에 근거하여 과학기술자를 대상으로 질적 인터뷰연구를 통해 이루어졌으며, 연구결과 과학기술분야 R&D 라이프사이클 5단계는 14개의 세부 정보행동 단계로 이루어짐을 밝혀내었다. 과학기술 R&D 연구 세부단계별로 문제상황 극복을 위한 정보행동 규명은 연구자와 연구환경의 변화를 이해할 뿐만 아니라 향후 도서관 및 정보서비스 기관에서 과학기술 전주기적 정보서비스 전략을 수립하는데 기초자료로 활용될 것이다.

Abstract

This study analyzed scientists information behaviors when they engage in solving specific research problems in various situations throughout the entire scientific R&D lifecycle process. In-depth interviews with a total of 24 scientists were conducted in their research laboratories, the scientists’ everyday workplace and the contexts of scientific research. The theoretical and methodological frameworks employed for this study were Dervin’s Sense-making, Savolainen’s Everyday Life Information Seeking, and Engeström's Activity Theory. The findings of this study informed context-specific research and information behaviors of the scientists in the 14 sub stages of the five-stage of R&D lifecycle. Specifically, the study revealed the research objectives and related information behaviors (e.g., information needs, information seeking, information sources and channels, information barriers, etc.) to achieve the objectives at each sub-stage. The study results provided essential information to re-design the information services and strategies that accommodate the scientific R&D lifecycle.

초록보기
초록

본 연구의 목적은 국내 학술논문 데이터베이스에서 검색한 언어 네트워크 분석 관련 53편의 국내 학술논문들을 대상으로 하는 내용분석을 통해, 언어 네트워크 분석 방법의 기초적인 체계를 파악하기 위한 것이다. 내용분석의 범주는 분석대상의 언어 텍스트 유형, 키워드 선정 방법, 동시출현관계의 파악 방법, 네트워크의 구성 방법, 네트워크 분석도구와 분석지표의 유형이다. 분석결과로 나타난 주요 특성은 다음과 같다. 첫째, 학술논문과 인터뷰 자료를 분석대상의 언어 텍스트로 많이 사용하고 있다. 둘째, 키워드는 주로 텍스트의 본문에서 추출한 단어의 출현빈도를 사용하여 선정하고 있다. 셋째, 키워드 간 관계의 파악은 거의 동시출현빈도를 사용하고 있다. 넷째, 언어 네트워크는 단수의 네트워크보다 복수의 네트워크를 구성하고 있다. 다섯째, 네트워크 분석을 위해 NetMiner, UCINET/NetDraw, NodeXL, Pajek 등을 사용하고 있다. 여섯째, 밀도, 중심성, 하위 네트워크 등 다양한 분석지표들을 사용하고 있다. 이러한 특성들은 언어 네트워크 분석 방법의 기초적인 체계를 구성하는 데 활용할 수 있을 것이다.

Abstract

The purpose of this study is to perform content analysis of research articles using the language network analysis method in Korea and catch the basic point of the language network analysis method. Six analytical categories are used for content analysis: types of language text, methods of keyword selection, methods of forming co-occurrence relation, methods of constructing network, network analytic tools and indexes. From the results of content analysis, this study found out various features as follows. The major types of language text are research articles and interview texts. The keywords were selected from words which are extracted from text content. To form co-occurrence relation between keywords, there use the co-occurrence count. The constructed networks are multiple-type networks rather than single-type ones. The network analytic tools such as NetMiner, UCINET/NetDraw, NodeXL, Pajek are used. The major analytic indexes are including density, centralities, sub-networks, etc. These features can be used to form the basis of the language network analysis method.

초록보기
초록

본 연구의 목적은 1) 소설 속 지명 데이터베이스(DB)를 구축하고, 2) 확장 가능한 지명 DB를 위해 자동으로 지명을 추출하여 데이터베이스를 갱신하며, 3) 데이터베이스 내의 소설지명과 용례를 검색하고 시각화하는 파일럿시스템을 구현하는 데 있다. 특히, 학습자료(training)에 해당하는 말뭉치(corpus)를 확보하기 어려운, 소설지명과 같이 현재 잘 쓰이지 않는 개체명을 자동으로 추출하는 것은 매우 어려운 문제이다. 효과적인 지명 정보 추출용 학습자료 말뭉치 확보 문제를 해결하기 위해 본 논문에서는 이미 수작업으로 구축된 웹 지식(어휘사전)을 활용하여 학습에 필요한 충분한 양의 학습말뭉치를 확보하는 방안을 적용하였다. 이렇게 확보된 학습용 코퍼스와 학습된 자동추출 모듈을 가지고, 새로운 지명 용례를 찾아 추가하는 지명 데이터베이스 확장 도구를 만들었으며, 소설지명을 지도 위에 시각화하는 시스템을 설계하였다. 또한, 시범시스템을 구현함으로써 실험적으로 그 타당성을 입증하였다. 끝으로, 현재 시스템의 보완점을 제시하였다.

Abstract

This study aimed to design a semi-automatic web-based pilot system 1) to build a Korean novel geo-name, 2) to update the database using automatic geo-name extraction for a scalable database, and 3) to retrieve/visualize the usage of an old geo-name on the map. In particular, the problem of extracting novel geo-names, which are currently obsolete, is difficult to solve because obtaining a corpus used for training dataset is burden. To build a corpus for training data, an admin tool, HTML crawler and parser in Python, crawled geo-names and usages from a vocabulary dictionary for Korean New Novel enough to train a named entity tagger for extracting even novel geo-names not shown up in a training corpus. By means of a training corpus and an automatic extraction tool, the geo-name database was made scalable. In addition, the system can visualize the geo-name on the map. The work of study also designed, implemented the prototype and empirically verified the validity of the pilot system. Lastly, items to be improved have also been addressed.

16
하승록(명지대학교 기록정보과학전문대학원 기록관리전공) ; 임진희(서울특별시청) ; 이해영(명지대학교) 2017, Vol.34, No.1, pp.341-371 https://doi.org/10.3743/KOSIM.2017.34.1.341
초록보기
초록

웹을 통해 제공되는 서비스는 현재 문서중심에서 데이터 중심으로 변화를 겪고 있으며, 그 변화의 중심에는 Linked Open Data(LOD)가 존재한다. 본 연구는 이러한 흐름에 부응하여 기록정보의 LOD 구축을 위한 구체적인 절차와 방법을 살펴보고자 하였다. 또한 소규모 아카이브의 서비스 지속가능성을 염두에 두고, 오픈소스 소프트웨어를 활용하여 LOD 구축 절차를 진행하는 범례를 제시하고자 했다. 이에 본 연구에서는 LOD 구축을 위한 5단계의 프레임워크를 제안했다. 그리고 일상아카이브인 ‘인간과 기억 아카이브’의 일기 기록물 컬렉션을 수집하여, 제안된 5단계 프레임워크에 따라 오픈소스 소프트웨어인 Protege와 Apache Jena Fuseki를 활용하여 POC(Proof of concept)를 진행하였다. 오픈소스를 활용하여 기록정보의 LOD를 구축한 뒤, 상호연결(Interlinking)과 SPARQL 검색을 통해서 외부 LOD와 연결되는 모습을 확인할 수 있었다. 또한 기록정보의 LOD 구축 절차 진행과정의 경험을 바탕으로 내용정보 기술의 품질 향상, 아키비스트의 역량 고도화, 기록정보의 접근성 향상을 위한 상호연결 고도화, LOD 서비스의 수준 결정, LOD 구축을 위한 도구 선정 등, 기록관 LOD 구축을 위한 필요요건을 제시했다.

Abstract

Recently, the web service environment has changed from document-centered to data-oriented focus, and the Linked Open Data(LOD) exists at the core of the new environment. Specific procedures and methods were examined to build the LOD of records information in accordance with this trend. With the service sustainability of small-scale archive in consideration, an exemplification on LOD building process by utilizing open source software was developed in this paper. To this end, a 5-step service framework for LOD construction was proposed and applied to a collection of diary records from ‘Human and Memory Archive’. Proof of Concept(POC) utilizing open source softwares, Protege and Apache Jena Fuseki, was conducted according to the proposed 5 step framework. After establishing the LOD of record information by utilizing the open source software, the connection with external LOD through interlinking and SPARQL search has been successfully performed. In addition, archives’ considerations for LOD construction, including improvement on the quality of content information, the role of the archivist, were suggested based on the understanding obtained through the LOD construction process of records information.

초록보기
초록

정보기술의 발전과 더불어 국가경쟁력 및 대국민 서비스 강화를 위한 공공정보시스템의 구축이 확산되고 있다. 또한 막대한 공공재원이 투자되는 공공정보시스템은 효율성에 대한 정기적인 평가를 통한 존재가치의 입증 및 문제점 진단을 통한 성능개선의 요구도 증대되고 있다. 따라서 본 연구는 국내의 대표적인 웹 기반 공공고용정보시스템 워크넷(Work-Net)의 데이터 및 서비스 품질을 102명의 이용자를 대상으로 평가하였다. 측정도구는 학계에서 많이 사용해온 정보내용, 정확성, 적시성, 출력형태, 사용의 용이성, 지원성으로 구성하였으며 t-test와 일원변량분석(one-way ANOVA)을 실시하여 이용자의 특성 및 검색정보에 따른 차이를 살펴보았다. 또한 최근 구직자들의 고용정보시스템에 대한 요구사항들을 분석하였다. 본 연구결과는 공공 및 민간운영 고용정보시스템 운영체제 효율화에 기여할 수 있는 유용한 기초자료를 제공할 것으로 본다.

Abstract

A public information system is being expanded, along with the advance of information technology, to strengthen national competitiveness and provide people with better services. And there also is a growing need for the better performance of that system, as a tremendous amount of public finacial resources is invested in that. To address that need, it's required to make an evaluation of its efficiency on a regular basis to identify its problems and make it work better. The purpose of this study was, accordingly, to examine the quality of data and services provided by the Work-Net, a Web-based public employment information system. The subjects in this study were 102 users of it, and the system was evaluated in terms of content, accuracy, timelines, display format, ease of use and customer support. For data analysis, t-test and one-way ANOVA were implemented to find out the general characteristics of the users, and to see whether or not their view was different according to the type of information they searched for. The findings of this study are expected to lay some foundation for intensifying the efficiency of the public and private employment information systems.

18
나경식(건국대학교) ; 이지수(숙명여자대학교) 2014, Vol.31, No.3, pp.271-291 https://doi.org/10.3743/KOSIM.2014.31.3.271
초록보기
초록

본 연구는 간호학과 학생들의 전자형태 문서의 이용 및 문서읽기 행태를 분석하기 위해 이들의 행태에서 나타나는 요소들에 대해 종합적으로 분석해 보고자 하였다. 이를 위해 본 연구는 간호학과 학생을 중심으로 지난 한 학기동안 학생들이 경험한 읽기행태를 조사하여 문서형태선호도와 요소 등을 다각적으로 분석하였다. 총 509명의 응답에 기초하여 분석한 결과, 간호학과 학생들은 일반적으로 전자형태문서에 대한 선호도가 높은 것으로 나타났으며, 소장하고 싶은 문서형태 또한 전자형태문서라고 응답하였다. 응답자 중, 약 94% 이상이 필요한 정보를 찾기 위해 30분 이상을 소요하고 있다고 나타났으며, 접근경로는 ‘네이버’ 검색엔진을 가장 많이 사용하는 것으로 응답하였다. 또한 주로 찾는 정보의 주제는 수업관련 정보가 가장 많았으며, 정보의 접근 장소로는 집에서 주로 정보를 찾고 이용하는 것으로 나타났다. 특히, 응답자들의 이동 중에 나타나는 문서선호도는 전자형태에 대한 선호도가 높게 나타났으며, 이동의 간편성과 접근의 용이성이 가장 높은 이유로 드러났다. 본 연구의 결과는 간호학과 학생들의 문서읽기행태를 분석하여 인쇄형태와 전자형태 문서의 읽기행태에 대한 이해를 증진시키고 향후 간호학 분야에서의 의학도서관 디지털정보이용의 서비스 설계 및 도구를 개발 또는 보완하기 위한 자료와, 더 나아가, 디지털 도서관 이용자 서비스 개선 방안을 모색하는 데 자료를 제시하고자 한다.

Abstract

The purpose of this study is to analyze undergraduate nursing students' electronic document use and reading behavior. To do this, a survey questionnaire was collected from 509 respondents who experienced reading behavior for the last semester. The results of this study show that nursing students’ preference of electronic documents is higher than that of printed documents in general. They also prefer electronic documents to printed documents when they want to keep documents. Of respondents, about 94% or higher spent 30mins or more to find information and the main source to find information is ‘Naver’ search engine as the highest information source, and the place to access information is ’Home’ as their highest information access location. In particular, the preference of the document ‘on the move’ is electronic documents and the main reason includes convenience and easiness to access and move the documents. The findings of this study expect to facilitate the understanding of undergraduate nursing students electronic document use and reading behavior so that it can be used to design and develop medical digital library services and tools more effectively and efficiently in medical area in the future. Furthermore, it expects to provide useful data in promoting user services in digital library in a whole.

19
최예진(이화여자대학교 문헌정보학과) ; 정연경(이화여자대학교) 2016, Vol.33, No.3, pp.63-83 https://doi.org/10.3743/KOSIM.2016.33.3.063
초록보기
초록

다양한 매체와 유형으로 생산되는 정보자원에 대한 이용이 높아짐에 따라, 정보자원을 기술하기 위한 정보조직의 도구로서 메타데이터에 대한 중요성이 높아지고 있다. 본 연구에서는 메타데이터 분야의 연구 영역을 파악할 수 있도록 동시출현단어 분석을 사용하여 메타데이터 분야의 지적 구조를 규명하고자 하였다. 이를 위하여 1998년 1월 1일부터 2016년 7월 8일까지 Web of Science 핵심컬렉션에 등재된 저널에 게재된 문헌을 대상으로 ‘metadata’라는 질의어로 Topic 검색을 수행하여, 총 727건의 논문에 대한 서지정보를 수집하였다. 이 중 저자 키워드를 가진 410건의 논문의 저자 키워드로 수집하고, 전처리 과정을 거쳐 저자 키워드 총 1,137개를 추출하여 최종적으로 빈도수 6회 이상의 키워드 37개를 분석대상으로 선정하였다. 이후 메타데이터 분야의 지적구조 규명을 위해 첫째, 네트워크 분석을 통하여 2개 영역 9개 군집을 도출하였으며, 메타데이터 분야 키워드들의 지적 관계를 시각화하고, 중심성 분석을 통한 전역 중심 키워드와 지역 중심이 높은 키워드를 제시하였다. 둘째, 군집분석을 실시하여 형성된 6개의 군집을 다차원축적지도상에 표시하였으며, 각 키워드들 간의 상관관계에 따른 지적구조를 제시하였다. 이러한 연구의 결과는 메타데이터 분야의 지적구조를 시각적으로 파악할 수 있게 하며, 향후 메타데이터 관련 교육과 연구의 방향성 모색에 유용하게 사용될 수 있을 것이다.

Abstract

As the usage of information resources produced in various media and forms has been increased, the importance of metadata as a tool of information organization to describe the information resources becomes increasingly crucial. The purposes of this study are to analyze and to demonstrate the intellectual structure in the field of metadata through co-word analysis. The data set was collected from the journals which were registered in the Core collection of Web of Science citation database during the period from January 1, 1998 to July 8, 2016. Among them, the bibliographic data from 727 journals was collected using Topic category search with the query word ‘metadata’. From 727 journal articles, 410 journals with author keywords were selected and after data preprocessing, 1,137 author keywords were extracted. Finally, a total of 37 final keywords which had more than 6 frequency were selected for analysis. In order to demonstrate the intellectual structure of metadata field, network analysis was conducted. As a result, 2 domains and 9 clusters were derived, and intellectual relations among keywords from metadata field were visualized, and proposed keywords with high global centrality and local centrality. Six clusters from cluster analysis were shown in the map of multidimensional scaling, and the knowledge structure was proposed based on the correlations among each keywords. The results of this study are expected to help to understand the intellectual structure of metadata field through visualization and to guide directions in new approaches of metadata related studies.

정보관리학회지