바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 표현성, 검색결과: 80
71
이미화(한성대학교 학술정보관) ; 정연경(이화여자대학교) 2008, Vol.25, No.3, pp.65-82 https://doi.org/10.3743/KOSIM.2008.25.3.065
초록보기
초록

검색 자원의 증가와 멀티 버전 자료의 증대에 따라 목록의 기능 중 집중기능이 필요하게 되면서, FRBR(Functional Requirements for Bibliographic Records)이 제안되었으나, 기존 서지데이터를 FRBR로 변환시 불완전함과 FRBR을 구체화할 목록규칙의 부재 등 현행 목록데이터를 FRBR로 완벽히 구현하기에는 한계가 있다. FRBR을 온라인목록에 적용하기 위해서는 방대한 양의 기존 MARC 데이터를 FRBR 알고리즘으로 처리해야 하지만, 기입력된 MARC 데이터와 현행 목록규칙은 FRBR을 완벽히 지원하지 않기 때문에 FRBR로의 변환이 용이하지 않다. 따라서 목록규칙과 MARC 기술에 대한 지침이 필요하다. 또한 국내에 FRBR 시스템을 구축하기 위해서는 FRBR 알고리즘을 실재 목록시스템에 적용하여 문제점과 해결책을 모색해야 한다. 이에 본고는 FRBR을 목록에 적용하기 위해서는 FRBR을 위한 목록규칙과 MARC 데이터 기술 방안이 선행되어야 한다는 전제하에 FRBR을 위한 저작 표현형 알고리즘을 개발하고, 실재 도서관 시스템에 적용하여 저작의 집중도와 적용시의 문제점을 분석하고, FRBR의 저작 집중성을 높이기 위한 방안으로 목록규칙과 MARC 입력방안을 제안하고 이를 검증하였다.

Abstract

The purposes of this study are to explore FRBR utilities such as work clustering and expression clustering and problems of application of the FRBR by developing work and expression clustering algorithm and implementing it into cataloging system, and to suggest new cataloging rules for FRBR and guideline of MARC description to improve FRBR work clustering. FRBR was suggested by necessitation of collocation function of bibliographic records according to increase of searching materials and multi-version materials, but FRBRization has some problems such as imperfect conversion of bibliographic records to FRBR records and inappropriateness of current cataloging rules for FRBR. Bibliographic records must be processed by FRBR algorithm to construct FRBRized system, but bibliographic records and current cataloging rules couldn't perfectly support FRBRization. Therefore cataloging rules and guidelines of MARC description for FRBR are needed. For constructing FRBRized cataloging system in Korea, it is needed to find problems and solution through FRBR practical application such as developing FRBR algorithm and applying it to cataloging records.

72
서하림(연세대학교 문헌정보학과 석사) ; 송민(연세대학교 문헌정보학과 교수) 2019, Vol.36, No.4, pp.207-226 https://doi.org/10.3743/KOSIM.2019.36.4.207
초록보기
초록

우울증은 전 세계적으로 많은 사람들이 겪고 있으며, 최근 다양한 분야에서 꾸준히 우울증에 대한 연구가 수행되고 있다. 특히 사람들이 본인의 스트레스나 감정 상태에 대해 소셜미디어에 공유한 글을 통해 그들의 심리나 정신건강에 대해 파악해보고자 하는 맥락에서 소셜미디어를 활용한 연구 역시 유의미하게 받아들여지고 있다. 이에 본 연구에서는 우울 경향의 이용자와 그렇지 않은 이용자들의 2016년부터 2019년 2월까지의 트위터 데이터를 수집하여 어떤 주제적, 어휘 사용의 특성을 보이는지 보고자 하였으며, 우울 경향의 시기별로도 어떤 차이를 보이는지 살펴보기 위해 우울 경향 관측 날짜를 기준으로 하여 이전(before) 시기와 이후(after) 시기를 구분하여 실험을 수행하였다. 토픽모델링, 동시출현 단어분석, 감성분석 방법을 통해 우울 경향과 비(非)우울 경향 이용자의 텍스트의 주제적 차이를 살펴보았고, 감성 반응에 따라 사용한 어휘에 대해서도 살펴봄으로써 어떠한 특성이 있는지 확인해 보았다. 데이터 수집 단계에서 ‘우울’ 표현을 포함한 텍스트 데이터 수집방법을 통해 비교적 긴 기간, 많은 양의 데이터를 수집할 수 있었고, 또한 우울 경향의 여부와 시기적 구분에 따른 관심 주제에 대한 차이도 확인할 수 있었다는 점에서 유의미하다고 볼 수 있다.

Abstract

Depression is a serious psychological disease that is expected to afflict an increasing number of people. And studies on depression have been conducted in the context of social media because social media is a platform through which users often frankly express their emotions and often reveal their mental states. In this study, large amounts of Korean text were collected and analyzed to determine whether such data could be used to detect depression in users. This study analyzed data collected from Twitter users who had and did not have depressive tendencies between January 2016 and February 2019. The data for each user was separately analyzed before and after the appearance of depressive tendencies to see how their expression changed. In this study the data were analyzed through co-occurrence word analysis, topic modeling, and sentiment analysis. This study’s automated data collection method enabled analyses of data collected over a relatively long period of time. Also it compared the textual characteristics of users with depressive tendencies to those without depressive tendencies.

73
김용환(연세대학교) ; 정영미(연세대학교) 2012, Vol.29, No.2, pp.155-171 https://doi.org/10.3743/KOSIM.2012.29.2.155
초록보기
초록

텍스트 범주화에 있어서 일반적인 문제는 문헌을 표현하는 핵심적인 용어라도 학습문헌 집합에 나타나지 않으면 이 용어는 분류자질로 선정되지 않는다는 것과 형태가 다른 동의어들은 서로 다른 자질로 사용된다는 점이다. 이 연구에서는 위키피디아를 활용하여 문헌에 나타나는 동의어들을 하나의 분류자질로 변환하고, 학습문헌 집합에 출현하지 않은 입력문헌의 용어를 가장 유사한 학습문헌의 용어로 대체함으로써 범주화 성능을 향상시키고자 하였다. 분류자질 선정 실험에서는 (1) 비학습용어 추출 시 범주 정보의 사용여부, (2) 용어의 유사도 측정 방법(위키피디아 문서의 제목과 본문, 카테고리 정보, 링크 정보), (3) 유사도 척도(단순 공기빈도, 정규화된 공기빈도) 등 세 가지 조건을 결합하여 실험을 수행하였다. 비학습용어를 유사도 임계치 이상의 최고 유사도를 갖는 학습용어로 대체하여 kNN 분류기로 분류할 경우 모든 조건 결합에서 범주화 성능이 0.35%~1.85% 향상되었다. 실험 결과 범주화 성능이 크게 향상되지는 못하였지만 위키피디아를 활용하여 분류자질을 선정하는 방법이 효과적인 것으로 확인되었다.

Abstract

In text categorization, core terms of an input document are hardly selected as classification features if they do not occur in a training document set. Besides, synonymous terms with the same concept are usually treated as different features. This study aims to improve text categorization performance by integrating synonyms into a single feature and by replacing input terms not in the training document set with the most similar term occurring in training documents using Wikipedia. For the selection of classification features, experiments were performed in various settings composed of three different conditions: the use of category information of non-training terms, the part of Wikipedia used for measuring term-term similarity, and the type of similarity measures. The categorization performance of a kNN classifier was improved by 0.35~1.85% in F1 value in all the experimental settings when non-learning terms were replaced by the learning term with the highest similarity above the threshold value. Although the improvement ratio is not as high as expected, several semantic as well as structural devices of Wikipedia could be used for selecting more effective classification features.

초록보기
초록

지적구조 분석을 위해 가중 네트워크를 시각화해야 하는 경우에 패스파인더 네트워크와 같은 링크 삭감 알고리즘이 널리 사용되고 있다. 이 연구에서는 네트워크 시각화를 위한 링크 삭감 알고리즘의 적합도를 측정하기 위한 지표로 NetRSQ를 제안하였다. NetRSQ는 개체간 연관성 데이터와 생성된 네트워크에서의 경로 길이 사이의 순위 상관도에 기반하여 네트워크의 적합도를 측정한다. NetRSQ의 타당성을 확인하기 위해서 몇 가지 네트워크 생성 방식에 대해 정성적으로 평가를 했었던 선행 연구의 데이터를 대상으로 시험적으로 NetRSQ를 측정해보았다. 그 결과 품질이 좋게 평가된 네트워크일수록 NetRSQ가 높게 측정됨을 확인하였다. 40가지 계량서지적 데이터에 대해서 4가지 링크 삭감 알고리즘을 적용한 결과에 대해서 NetRSQ로 품질을 측정하는 실험을 수행한 결과, 특정 알고리즘의 네트워크 표현 결과가 항상 좋은 품질을 보이는 것은 아니며, 반대로 항상 나쁜 품질을 보이는 것도 아님을 알 수 있었다. 따라서 이 연구에서 제안한 NetRSQ는 생성된 계량서지적 네트워크의 품질을 측정하여 최적의 기법을 선택하는 근거로 활용될 수 있을 것이다.

Abstract

Link reduction algorithms such as pathfinder network are the widely used methods to overcome problems with the visualization of weighted networks for knowledge domain analysis. This study proposed NetRSQ, an indicator to measure the goodness of fit of a link reduction algorithm for the network visualization. NetRSQ is developed to calculate the fitness of a network based on the rank correlation between the path length and the degree of association between entities. The validity of NetRSQ was investigated with data from previous research which qualitatively evaluated several network generation algorithms. As the primary test result, the higher degree of NetRSQ appeared in the network with better intellectual structures in the quality evaluation of networks built by various methods. The performance of 4 link reduction algorithms was tested in 40 datasets from various domains and compared with NetRSQ. The test shows that there is no specific link reduction algorithm that performs better over others in all cases. Therefore, the NetRSQ can be a useful tool as a basis of reliability to select the most fitting algorithm for the network visualization of intellectual structures.

초록보기
초록

네트워크 분석 기법을 활용한 연구가 다양한 학문 분야에서 수행되고 있다. 본 연구는 2003년부터 2021년까지 국내 학술지에 게재된 네트워크 분석 논문 총 2,187건을 대상으로 계량서지적 분석과 내용분석을 수행하였다. 분석결과는 살펴보면, 논문 생산에 있어서 교육학, 학제간연구, 컴퓨터학, 문헌정보학, 행정학, 경영학 등의 우위를 확인할 수 있다. 학술지 단위로 보면, 메가 학술지의 강세가 나타난다. 그러나 피인용 기반의 영향력을 살펴보면, 행정학, 문헌정보학, 교육학의 영향력을 뚜렷하게 확인할 수 있다. 저자 단위로 분석한 결과 역시 언론정보학, 행정학, 문헌정보학의 우위를 확인할 수 있다. 파악된 1,537명의 저자 중에서 극소수의 저자가 활발한 연구활동을 하는 것으로 나타났으며, 이를 통해 연구자 저변 확대의 필요성도 확인할 수 있다. 내용분석의 결과를 살펴보면, 논문을 데이터셋으로 하여 가중/비방향네트워크를 형성하는 것이 가장 일반적인 네트워크 형태로 나타났다. 노드는 단어, 링크는 동시출현으로 표현되는 것이 보편적이며, 분석을 위해서는 KrKwic, UCINET, NetMiner, NetDraw의 활용이 가장 두드러졌다.

Abstract

Research in various academic fields using network analysis techniques has been conducted and grown. This study performed bibliographical analysis and content analysis on a total of 2,187 network analysis papers published in journals from 2003 to 2021. The results showed that the fields of Pedagogy, Interdisciplinary Research, Computer Science, Library and Information Science, Public Administration, and Business Administration were higher in terms of the number of research papers. From the perspective of journal, mega-journals were indicated as the most productive journals. However, when looking at the impact based on the number of citations, the strength of Public Administration, Library and Information Science, and Pedagogy is clearly revealed. The results of the analysis by authors can also confirm the higher impact of Journalism, Public Administration Science, and Library and Information Science. Of the 1,537 authors identified, very few authors are active in research, confirming the need to expand the researcher base. The results of content analysis showed that the weighted and non-directional network was the most common network type with using the research papers as a data set. Generally nodes are expressed as words and links are expressed as relationship. For network analysis, the use of KrKwic, UCINET, NetMiner, and NetDraw is the most prominent.

76
이지원(대구가톨릭대학교 도서관학과 부교수) 2019, Vol.36, No.4, pp.279-300 https://doi.org/10.3743/kosim.2019.36.4.279
초록보기
초록

본 연구는 동시출현단어 분석을 사용하여 2000년대와 2010년대 목록 분야 연구동향 및 지적구조 분석을 수행하고, 두 시기의 차이점을 비교하였다. 목록 분야는 독자적인 연구 영역을 확고히 구축하고 있었으며, 2000년대와 2010년대 연구동향 및 지적구조에 많은 차이점이 발견되었다. 첫째, 논문 수에 있어서는 2000년대에 비해 2010년대에는 연간 평균 4.2편이 감소하였으나, 저자키워드 수는 큰 차이는 나지 않았다. 연대별 키워드 출현빈도는 22.2%의 키워드만이 두 시기에 모두 3회 이상 나타났으며, 77.8%의 키워드들은 한 시기에만 3회 이상 나타났다. 둘째, 지적구조에 있어서 살펴보면, 2000년대에는 3단계 군집을 보여주어 2단계 군집으로 표현된 2010년대에 비해 보다 복잡한 형태의 네트워크를 형성하였다. 셋째, 각 군집의 특성 변화를 살펴본 결과, 일부 변화가 적은 연구주제들이 있기는 하지만, 많은 연구주제들이 더욱 활발히 진행되거나 세분되었으며, 감소하기도 하는 변화가 있었다. 이러한 연구의 결과는 목록 분야의 시대적 흐름과 함께 지적구조를 시각적으로 파악할 수 있게 하며, 미래의 모습을 예측하여 관련 교육과 연구를 준비할 수 있다는 점에서 의의가 있다.

Abstract

This study aims to analyze and to demonstrate the research trends and intellectual structure in the field of catalog in the 2000s and 2010s through co-word analysis. The field of catalog had firmly established its own research area and Many differences were found in research trends and intellectual structures in the 2000s and 2010s. First, the average number of articles decreased by 4.2 in the 2010s compared to the 2000s, but the number of author keywords was not significantly different. Only 22.2% of keywords appeared more than three times in both periods, and 77.8% of keywords appeared more than three times in one period. Second, in terms of intellectual structure, the 2000s, represented by three-level clusters, formed a more complex network than the 2010s, represented by two-level clusters. Third, as a result of examining the changes in the characteristics of each cluster, there were some research topics with few changes, but many research topics were more actively progressed or subdivided, and decreased. The results of this study are meaningful in that they can visually grasp the intellectual structure along with the trend of the age of catalogue, and can prepare for related education and research by predicting the future.

초록보기
초록

디지털 도서관을 통해 제공되는 정보 자원의 형태와 종류가 다양화됨에 따라 자료의 유형별로 적정 수준의 메타데이터를 정의하고 제공하는 것이 또 다른 과제로 대두되고 있다. 일반 텍스트 자료와 달리 수치로 표현된 데이터에 대한 해석을 필요로 하는 통계 자료의 특성상, 통계 도메인에서 메타데이터는 통계 자료의 검색뿐 아니라 검색된 자료의 정확한 이해와 활용을 위한 필수적인 도구로 인식되고 있다. 하지만 기존의 통계 메타데이터 연구는 통계 작성 기관이나 분석 기관의 전문적인 요구에 중점을 두고 있어, 인터넷을 통해 통계 자료에 접근하는 일반 이용자들의 관점에서의 논의는 상대적으로 부족한 실정이다.일반 이용자를 위한 통계 메타데이터에 대한 논의의 단초로서, 본 연구는 미국의 연방 통계 기관인 the Bureau of Labor Statistics (BLS, HYPERLINK "http://www.bls.gov/" http://www.bls.gov/) 및 the Energy Information Administration (EIA, HYPERLINK "http://www.eia.doe.gov/" http://www.eia.doe.gov/)의 웹사이트에 대한 내용 분석을 통해, 현재 인터넷을 통해 통계 자료에 접근하는 이용자들에게 제공되고 있는 메타데이터의 현황을 평가하였다. 본 사례 연구의 결과는 이들 웹사이트를 통해 제공되는 방대한 양의 자료에도 불구하고 메타데이터의 제공 수준은 국제 기구에 의해 정의된 최소 수준에 미치지 못함을 나타내고 있어,이용자 중심의 메타데이터 설계의 필요성을 재확인 하고 있다.

Abstract

As increasingly diverse kinds of information materials are available on the Internet, it becomes a challenge to define an adequate level of metadata provision for each different type of material in the context of digital libraries. This study explores issues of metadata provision for a particular type of material, statistical tables. Statistical data always involves numbers and numeric values which should be interpreted with an understanding of underlying concepts and constructs. Because of the unique data characteristics, metadata in the statistical domain is essential not only for finding and discovering relevant data, but also for understanding and using the data found. However, in statistical metadata research, more emphasis has been put on the question of what metadata is necessary for processing the data and less on what metadata should be presented to users.In this study, a case study was conducted to gauge the status of metadata provision for statistical tables on the Internet. The websites of two federal statistical agencies in the United States were selected and a content analysis method was used for that purpose. The result showing insufficient and inconsistent provision of metadata demonstrate the need for more discussions on statistical metadata from the ordinary web users’ perspective.

78
이재윤(경기대학교) 2007, Vol.24, No.3, pp.363-383 https://doi.org/10.3743/KOSIM.2007.24.3.363
초록보기
초록

전 학문 분야를 포괄하는 광역 과학 지도는 학문 분야 사이의 구조적인 관계를 시각적으로 분석하는데 사용되고 있다. 이 연구에서는 광역 과학 지도에 대한 선행 연구를 개관한 후 새로운 방법으로 국내의 학술 활동을 반영하는 광역 과학 지도를 생성하였다. 광역 과학 지도에 대한 연구는 ISI사(현재 Thomson Scientific)의 Garfield와 Small에 의해서 촉발되었고 최근에는 스페인 그라나다 대학의 SCImago 연구팀과 미국 인디애나 대학의 Brner 교수팀이 활발히 연구 결과를 발표하고 있다. 이들은 자신들이 만들어 발표하고 있는 지도를 과학 지도 또는 사이언토그램이라고 부르며, 이에 관련된 활동을 과학지도학(scientography)이라고 하였다. 기존의 광역 과학 지도는 대부분 학술 논문 사이의 인용 분석에 근거하여 제작되었으나, 국내 학술 논문에 대한 인용 데이터베이스는 아직 미비한 상태이다. 따라서 이 연구에서는 국내의 광역 과학 지도를 만들기 위해서 학술진흥재단에 신청된 과제 제안서의 텍스트를 활용하였다. 학문 분야 사이의 연결 정보를 네트워크로 표현하는 수단으로 널리 사용되고 있는 패스파인더 네트워크(PFNet) 알고리즘으로 광역 과학 지도를 생성한 후, 이의 대안으로 개발된 클러스터링 기반 네트워크(CBNet) 알고리즘으로 다시 지도를 생성하였다. 최종적으로 두 지도에 나타난 상반된 관점을 통합하도록 CBNet 지도를 수정하여 국내 광역 과학 지도를 제시하였다.

Abstract

Global map of science, which is visualizing large scientific domains, can be used to visually analyze the structural relationships between major areas of science. This paper reviewed previous efforts on global science map, and then tried to making a science map of Korea with some new methods. There are several research groups on making global map of science including Dr. Small and Dr. Garfield of ISI (now Thompson Scientific), SCImago research group at the University of Granada, and Dr. Brner's InfoVis Lab at the Indiana University. They called their maps as science map or scientogram and called the activity of mapping science as scientography. Most of the previous works are based on citations between scientific articles. However citation database for Korean journal articles is still under construction. This research tried to make a Korean science map with the text in the proposals suggested for funding from Korean Research Foundation. Two kinds of method for generating networks of scientific fields are used. One is Pathfinder network (PFNet) alogorithm which has been used in several published bibliometric studies. The other is clustering-based network (CBnet) algorithm which was proposed recently as an alternative to PFNet. In order to take into account both views of the two algorithms, the resulting maps are combined to a final science map of Korea.

79
윤재혁(성균관대학교 일반대학원 문헌정보학과) ; 도슬기(성균관대학교 일반대학원 문헌정보학과) ; 오삼균(성균관대학교 문헌정보학과) 2020, Vol.37, No.2, pp.197-223 https://doi.org/10.3743/KOSIM.2020.37.2.197
초록보기
초록

본 연구는 통합서지용 한국문헌자동화목록(KORMARC)으로 작성된 서지레코드를 FRBR의 저작(Work) 단위로 군집화 하는 과정에서 나타난 이슈사항들을 분석하고, 이에 대한 해결방안을 고안하였다. 특히 기존의 연구에서는 대표저작자를 식별하고 처리하는 기준이 명확하게 드러나지 않거나 파생저작 레코드의 대표저작자를 선정하는 방법에 대한 논의가 충분히 이루어지지 않았다. 따라서 본 연구는 저작을 창작하는 데 기여한 사람이 다수일 때 대표저작자를 명확하게 식별하기 위한 방법을 고안하는 데 초점을 맞추었다. 이를 위해 책임표시사항(245) 필드의 책임표시 태그(▼d, ▼e)에서 추출한 역할용어를 토대로 표준화된 저자역할용어사전을 개발하여 대표저작자 판별에 활용하는 방안을 마련하였다. 또한 저자명의 유사도와 표제의 유사도를 각각 계산하여 유사도가 일정 수준 이상인 경우 동일한 저작으로 군집화 하는 방법을 채택하였다. 각각의 유사도를 계산하여 동일 저작을 판단하므로 공백, 관제처리, 괄호제거와 같은 데이터 정제 조건을 조정하여 6가지 패턴에 따른 군집화의 정확도를 비교하였고, 저자명과 표제의 유사도가 모두 80퍼센트 이상일 때의 정확도가 가장 높게 나타났다. 본 연구는 대표저작자 선정을 위한 역할용어사전 개발, 대표저작자와 표제의 유사도를 별도로 측정하여 저작군집화를 시도한 실험연구이며 후속 연구에서는 표제 간 유사도 측정의 정확도를 향상시키는 방안과 FRBR 1그룹의 다른 개체(표현형, 구현형, 개별자료) 수준으로 확대하여 활용하는 방안, 국내에서 사용하고 있는 다른 형태의 MARC 데이터에 적용하는 방안을 고안할 예정이다.

Abstract

The purpose of this study is to analyze the issues resulted from the process of grouping KORMARC records using FRBR WORK concept and to suggest a new method. The previous studies did not sufficiently address the criteria or processes for identifying representative authors of records and their derivatives. Therefore, our study focused on devising a method of identifying the representative author when there are multiple contributors in a work. The study developed a method of identifying representative authors using an author role dictionary constructed by extracting role-terms from the statement of responsibility field (245). We also designed another way to group records as a work by calculating similarity measures of authors and titles. The accuracy rate of WORK grouping was the highest when blank spaces, parentheses, and controling processes were removed from titles and the measured similarity rates of authors and titles were higher than 80 percent. This was an experiment study where we developed an author-role dictionary that can be utilized in selecting a representative author and measured the similarity rate of authors and titles in order to achieve effective WORK grouping of KORMARC records. The future study will attempt to devise a way to improve the similarity measure of titles, incorporate FRBR Group 1 entities such as expression, manifestation and item data into the algorithm, and a method of improving the algorithm by utilizing other forms of MARC data that are widely used in Korea.

초록보기
초록

향토문화란 한 지방의 자연환경 속에서 과거로부터 현재까지 면면히 전승되어 온 역사와 전통, 풍물과 생활, 예술과 유물 및 유적 등의 모든 유산을 의미한다. 한국학중앙연구원에서는 이런 향토문화를 디지털 콘텐츠로 제작하고 이를 이용하여 『한국향토문화전자대전』을 편찬하였다. 향토문화 콘텐츠는 기록물의 특성을 가지고 있어 출처주의, 계층목록과 같은 기록물관리체계를 따르고 있으며 이를 편찬․관리하기 위한 시스템은 기초자료, 단편적 정보 및 고급정보 등이 하나의 시스템 안에서 순환하면서 새로운 지식정보를 만들어내도록 도와주는 순환형 지식정보관리시스템을 지향한다. 순환형 지식정보관리시스템의 이용자는 이 시스템을 통해 직접적으로 자료를 수집할 수 있을 뿐만 아니라 다른 곳으로부터 데이터를 수집할 수 있으며, 나아가 수집한 데이터를 가공하여 새로운 지식 정보를 창출할 수 있다. 그러나 다양한 향토문화 콘텐츠의 구조에 포함된 의미적인 특징을 손상시키지 않고 데이터베이스를 구축하기가 매우 어렵고, 또한 이러한 작업은 장시간에 걸쳐 여러 차례의 교정 작업이 수행되어야 하므로 문서편찬, 교정, 서비스가 동시에 수행되는 시스템을 필요로 한다. 따라서 본 논문에서는 『한국향토문화전자대전』의 사례를 중심으로 고문서가 많이 포함된 향토문화 콘텐츠의 의미적인 특징을 손상시키지 않으면서, 문서의 구조정보를 표현할 수 있는 XML 기반의 디지털 편찬 관리시스템을 제시하고 본 연구에서 개발된 관리시스템에서 향토문화 콘텐츠 관리를 위해 확장된 기능을 소개한다.

Abstract

Local culture is a cultural heritage that has come down from generation to generation in the natural environment of a region. It includes history, tradition, natural features, art, and historic relics. The Academy of Korean Studies has complied “The Encyclopedia of Korean Local Culture” using those local culture contents. Local culture content shave the features of documentary, such as authenticating the source, and managing hierarchy structure. Thus, to deal with local culture contents, a “circular knowledge information management system” is sought for that helps basic, fragmentary, and high-level information to circulate to create new knowledge information within the system. A user of this circular knowledge information management system is able not only to collect data directly in it, but also to fetch data from other database. Besides, processing the collected data helps to create new knowledge information. But, it’s very difficult to sustain the features of the original hierarchy bearing meaning contained in the various kinds of local culture contents when building a new database. Moreover, this kind of work needs many times of correction over a long period of time. Therefore, a system in which compilation, correction, and service can be done simultaneously is needed. Therefore, in this study, focusing on the case of “The Encyclopedia of Korean Local Culture”, I propose a XML-based digital compilation management system that can express hierarchy information and sustain the semantic features of the local culture contents containing lots of ancient documents, and introduce the expanded functions developed to manage contents in the system.

정보관리학회지