바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 자동 수집, 검색결과: 16
1
김태영(전북대학교) ; 양동민(전북대학교) ; 최상기(전북대학교) ; 오효정(전북대학교) 2019, Vol.36, No.2, pp.79-104 https://doi.org/10.3743/KOSIM.2019.36.2.079
초록보기
초록

최근 공공기관에서 국민과 소통하는 방법의 하나로 소셜미디어를 활발하게 활용함에 따라 기록관리 영역에서도 이를 수집하고 보존하기 위한 다양한 방안들이 논의되고 있다. 미국에서는 정부 차원에서 소셜미디어를 수집․보존하고자 하는 움직임이 일고 있고, 영국 국립기록관에서는 이미 공공기관의 트위터와 유튜브를 대상으로 아카이브를 구축하여 이용자에게 서비스를 제공하고 있다. 이에 본 연구에서는 소셜미디어 아카이빙의 수집 및 보존 측면에서의 사례조사 결과를 토대로 소셜미디어의 유형별 특징과 그에 따른 수집 방안과 보존 모형을 제안하고자 한다. 또한 제안방안의 실효성을 검증하기 위해 경상남도 도청의 소셜미디어를 대상으로 시범 적용하였다. 본 연구는 실제 수집한 결과를 통해 수집 및 보존방안을 제시하였다는 점에서 그 의의가 있으며, 차후 소셜미디어 아카이빙을 위한 모델 수립에 도움이 될 수 있을 것으로 기대한다.

Abstract

Recently, various methods of collecting and preserving social media have been discussed in the field of archives and records management as social media is actively used as a way of communicating with the public in the government. In the United States, there is a move to acquire and preserve social media at the government level, and the National Archives (UK) already provides social media archives to users through Twitter and YouTube. In this study, we proposed the features, acquisition methods of social media by type and the preservation model based on case study results in terms of acquisition and preservation of social media archiving. In order to verify the effectiveness of the proposed methods, this study was applied to the social media of Gyeongsangnamdo provincial government. The results of this study is meaningful in that it suggested acquisition and preservation methods through actual collected results and it is expected that it will be useful for establishing the models for future social media archiving.

2
정영임(한국과학기술정보연구원) ; 김정환(한국과학기술정보연구원) 2012, Vol.29, No.2, pp.7-25 https://doi.org/10.3743/KOSIM.2012.29.2.007
초록보기
초록

전자저널의 활용이 급속히 증가하면서 도서관에서는 자관에서 구입되는 전자저널이 얼마나, 어떻게 활용되고 있는지에 대한 관심이 증가하였다. 또한 전자정보 컨소시엄 주관기관에서도 컨소시엄 내에서 유통되는 학술자원의 이용통계에 대한 분석을 통해 국가 차원의 전자학술저널의 유통 현황 파악 및 수요자 중심의 정보수집 정책 개발이 필수적이다. 그러나 기존의 수작업에 의존한 이용통계 수집과 출판사에서 제공하는 저널 이용통계 보고서만으로는 이용에 대한 포괄적이고 심층적인 분석이 불가능하다. 이에 본 연구에서는 대용량 이용통계 수집 및 분석의 기반 마련을 위해 스크린 스크래핑과 SUSHI 프로토콜을 적용한 전자저널 이용통계 자동수집 시스템을 구현하였다. 또 저널 서지정보 및 컨소시엄 계약 데이터베이스를 연동하여 심층적인 이용통계 분석정보를 생성할 수 있는 방안을 제안하였다.

Abstract

The proliferating use of e-journals has led increasing interest in collecting and analyzing usage statistic information. However, the existing manual method and simple journal usage reports provided by publishers hinder the effective collection of large-scale usage statistics and the comprehensive/in-depth analysis on them. Thus we have proposed a hybrid automatic method of collecting e-journal usage statistics based on screen scraping and SUSHI protocol. In addition, the generation method of summary statistics presented in graphs, charts and tables has been suggested in this study. By utilizing the suggested system and analysis data, librarians can compose various reports on budget or operation of the libraries.

초록보기
초록

본 연구에서는 의견이나 감정을 담고 있는 의견 문서들의 자동 분류 성능을 향상시키기 위하여 개념색인의 하나인 잠재의미색인 기법을 사용한 분류 실험을 수행하였다. 실험을 위해 수집한 1,000개의 의견 문서는 500개씩의 긍정 문서와 부정 문서를 포함한다. 의견 문서 텍스트의 형태소 분석을 통해 명사 형태의 내용어 집합과 용언, 부사, 어기로 구성되는 의견어 집합을 생성하였다. 각기 다른 자질 집합들을 대상으로 의견 문서를 분류한 결과 용어색인에서는 의견어 집합, 잠재의미색인에서는 내용어와 의견어를 통합한 집합, 지도적 잠재의미색인에서는 내용어 집합이 가장 좋은 성능을 보였다. 전체적으로 의견 문서의 자동 분류에서 용어색인 보다는 잠재의미색인 기법의 분류 성능이 더 좋았으며, 특히 지도적 잠재의미색인 기법을 사용할 경우 최고의 분류 성능을 보였다.

Abstract

The aim of this study is to apply latent semantic indexing(LSI) techniques for efficient automatic classification of opinionated documents. For the experiments, we collected 1,000 opinionated documents such as reviews and news, with 500 among them labelled as positive documents and the remaining 500 as negative. In this study, sets of content words and sentiment words were extracted using a POS tagger in order to identify the optimal feature set in opinion classification. Findings addressed that it was more effective to employ LSI techniques than using a term indexing method in sentiment classification. The best performance was achieved by a supervised LSI technique.

4
지선영(경기대학교 일반대학원 문헌정보학과) ; 최성필(경기대학교 문헌정보학과) 2021, Vol.38, No.1, pp.221-242 https://doi.org/10.3743/KOSIM.2021.38.1.221
초록보기
초록

본 연구에서는 사전학습 된 언어 모델을 기반으로 양방향 게이트 순환 유닛 모델과 조건부 랜덤 필드 모델을 활용하여 참고문헌을 구성하는 메타데이터를 자동으로 인식하기 위한 연구를 진행하였다. 실험 집단은 2018년에 발행된 학술지 40종을 대상으로 수집한 PDF 형식의 학술문헌 53,562건을 규칙 기반으로 분석하여 추출한 참고문헌 161,315개이다. 실험 집합을 구축하기 위하여 PDF 형식의 학술 문헌에서 참고문헌을 분석하여 참고문헌의 메타데이터를 자동으로 추출하는 연구를 함께 진행하였다. 본 연구를 통하여 가장 높은 성능을 나타낸 언어 모델을 파악하였으며 해당 모델을 대상으로 추가 실험을 진행하여 학습 집합의 규모에 따른 인식 성능을 비교하고 마지막으로 메타데이터별 성능을 확인하였다.

Abstract

This study applied reference metadata recognition using bidirectional GRU-CRF model based on pre-trained language model. The experimental group consists of 161,315 references extracted by 53,562 academic documents in PDF format collected from 40 journals published in 2018 based on rules. In order to construct an experiment set. This study was conducted to automatically extract the references from academic literature in PDF format. Through this study, the language model with the highest performance was identified, and additional experiments were conducted on the model to compare the recognition performance according to the size of the training set. Finally, the performance of each metadata was confirmed.

5
김영범(전남대학교 대학원 기록관리학 석사) ; 장우권(전남대학교 문헌정보학과 교수) 2023, Vol.40, No.3, pp.99-118 https://doi.org/10.3743/KOSIM.2023.40.3.099
초록보기
초록

이 연구의 목적은 기록물의 맥락정보를 담고 있는 메타데이터를 활용하여 기록물 자동분류 과정에서의 성능요소를 파악하는데 있다. 연구를 위해 2022년 중앙행정기관 원문정보 약 97,064건을 수집하였다.수집한 데이터를 대상으로 다양한 분류 알고리즘과 데이터선정방법, 문헌표현기법을 적용하고 그 결과를 비교하여 기록물 자동 분류를 위한 최적의 성능요소를 파악하고자 하였다. 연구 결과 분류 알고리즘으로는 Random Forest가, 문헌표현기법으로는 TF 기법이 가장 높은 성능을 보였으며, 단위과제의 최소데이터 수량은 성능에 미치는 영향이 미미하였고 자질은 성능변화에 명확한 영향을 미친다는 것이 확인되었다.

Abstract

The objective of this study is to identify performance factors in the automatic classification of records by utilizing metadata that contains the contextual information of records. For this study, we collected 97,064 records of original textual information from Korean central administrative agencies in 2022. Various classification algorithms, data selection methods, and feature extraction techniques are applied and compared with the intent to discern the optimal performance-inducing technique. The study results demonstrated that among classification algorithms, Random Forest displayed higher performance, and among feature extraction techniques, the TF method proved to be the most effective. The minimum data quantity of unit tasks had a minimal influence on performance, and the addition of features positively affected performance, while their removal had a discernible negative impact.

초록보기
초록

본 연구는 새로운 분석법으로 떠오르는 처방적 분석 기법을 소개하고, 이를 분류 기반의 시스템에 효율적으로 적용하는 방안을 제시하는 것을 목적으로 한다. 처방적 분석 기법은 분석의 결과를 제시함과 동시에 최적화된 결과가 나오기까지의 과정 및 다른 선택지까지 제공한다. 새로운 개념의 분석 기법을 도입함으로써 문헌 분류를 기반으로 하는 응용 시스템을 더욱 쉽게 최적화하고 효율적으로 운영하는 방안을 제시하였다. 최적화의 과정을 시뮬레이션하기 위해, 대용량의 학술문헌을 수집하고 기준 분류 체계에 따라 자동 분류를 실시하였다. 처방적 분석 개념을 적용하는 과정에서 대용량의 문헌 분류를 위한 동적 자동 분류 기법과 학문 분야의 지적 구조 분석 기법을 동시에 활용하였다. 실험의 결과로 효과적으로 서비스 분류 체계를 수정하고 재적용할 수 있는 몇 가지 최적화 시나리오를 효율적으로 도출할 수 있음을 보여 주었다.

Abstract

This study aims to introduce an emerging prescriptive analytics method and suggest its efficient application to a category-based service system. Prescriptive analytics method provides the whole process of analysis and available alternatives as well as the results of analysis. To simulate the process of optimization, large scale journal articles have been collected and categorized by classification scheme. In the process of applying the concept of prescriptive analytics to a real system, we have fused a dynamic automatic-categorization method for large scale documents and intellectual structure analysis method for scholarly subject fields. The test result shows that some optimized scenarios can be generated efficiently and utilized effectively for reorganizing the classification-based service system.

7
김선우(경기대학교 문헌정보학과) ; 고건우(경기대학교 문헌정보학과) ; 최원준(한국과학기술정보연구원 콘텐츠 큐레이션센터) ; 정희석(한국과학기술정보연구원 콘텐츠 큐레이션센터) ; 윤화묵(한국과학기술정보연구원 콘텐츠큐레이션센터) ; 최성필(경기대학교) 2018, Vol.35, No.4, pp.141-164 https://doi.org/10.3743/KOSIM.2018.35.4.141
초록보기
초록

최근 학술문헌의 양이 급증하고, 융복합적인 연구가 활발히 이뤄지면서 연구자들은 선행 연구에 대한 동향 분석에 어려움을 겪고 있다. 이를 해결하기 위해 우선적으로 학술논문 단위의 분류 정보가 필요하지만 국내에는 이러한 정보가 제공되는 학술 데이터베이스가 존재하지 않는다. 이에 본 연구에서는 국내 학술문헌에 대해 다중 분류가 가능한 자동 분류 시스템을 제안한다. 먼저 한국어로 기술된 기술과학 분야의 학술문헌을 수집하고 K-Means 클러스터링 기법을 활용하여 DDC 600번 대의 중분류에 맞게 매핑하여 다중 분류가 가능한 학습집합을 구축하였다. 학습집합 구축 결과, 메타데이터가 존재하지 않는 값을 제외한 총 63,915건의 한국어 기술과학 분야의 자동 분류 학습집합이 구축되었다. 이를 활용하여 심층학습 기반의 학술문헌 자동 분류 엔진을 구현하고 학습하였다. 객관적인 검증을 위해 수작업 구축한 실험집합을 통한 실험 결과, 다중 분류에 대해 78.32%의 정확도와 72.45%의 F1 성능을 얻었다.

Abstract

Recently, as the amount of academic literature has increased rapidly and complex researches have been actively conducted, researchers have difficulty in analyzing trends in previous research. In order to solve this problem, it is necessary to classify information in units of academic papers. However, in Korea, there is no academic database in which such information is provided. In this paper, we propose an automatic classification system that can classify domestic academic literature into multiple classes. To this end, first, academic documents in the technical science field described in Korean were collected and mapped according to class 600 of the DDC by using K-Means clustering technique to construct a learning set capable of multiple classification. As a result of the construction of the training set, 63,915 documents in the Korean technical science field were established except for the values ​​in which metadata does not exist. Using this training set, we implemented and learned the automatic classification engine of academic documents based on deep learning. Experimental results obtained by hand-built experimental set-up showed 78.32% accuracy and 72.45% F1 performance for multiple classification.

8
강윤호(대림대학 문헌정보과) ; 박영애(경기대학교 문헌정보학과) 2009, Vol.26, No.3, pp.417-434 https://doi.org/10.3743/KOSIM.2009.26.3.417
초록보기
초록

국가도서관통계시스템에서 요구하는 통계항목들은 이론적 견지에서 보면 도서관평가 또는 도서관운영 정책수립을 위해 필요한 데이터를 기반으로 한 항목들이라고 할 수 있다. 그러나 국가도서관통계시스템에서 요구하는 통계항목과 공공도서관현장에서 일반적으로 수집될 수 있는 통계항목들과는 차이가 있음을 알 수 있다. 따라서 공공도서관 평가로 활용되고 있는 국가도서관통계가 신뢰할 수 있는 또는 타당성이 있는 객관적 데이터인지를 알아보기 위하여, 공공도서관 현장에서 통계를 수집할 수 있는 근거자료인 도서관 업무(운영)일지의 항목들을 분석하고 아울러 통계의 자동수집이 가능한 도서관리 프로그램에 대한 공공도서관에서의 사용 현황을 조사하였다. 이 연구의 분석 자료는 향후 공공도서관 업무(운영)일지의 표준안 마련을 위한 기초 자료로 활용될 것이다.

Abstract

Statistics items required by National Library Statistics System are based on data for library evaluation and policy making of library management from a theoretical standpoint. However, It is realized there are differences between Statistics items required by National Library Statistics System and those can be collected at the field of public libraries. In accordance with this point, this paper contained an analysis of a working diary log of public libraries as a basic material able to collect data at the field of public libraries and also surveyed the present usage situation of Library Management Program able to automatically collect data to recognize that National Library Statistics is reliably or validly objective data. An analysis data of this research will be a basic material to plan the standard guide of a working diary log of public libraries from now on.

초록보기
초록

본 연구는 시계열 특성을 갖는 데이터의 패턴 유사도 비교를 통해 유사 추세를 보이는 키워드를 자동 분류하기 위한 효과적인 방법을 제안하는 것을 목표로 한다. 이를 위해 대량의 웹 뉴스 기사를 수집하고 키워드를 추출한 후 120개 구간을 갖는 시계열 데이터를 생성하였다. 제안한 모델의 성능 평가를 위한 테스트 셋을 구축하기 위해, 440개의 주요 키워드를 8종의 추세 유형에 따라 수작업으로 범주를 부여하였다. 본 연구에서는 시계열 분석에 널리 활용되는 동적 시간 와핑(DTW) 기법을 기반으로, 추세의 경향성을 잘 보여주는 이동 평균(MA) 기법을 DTW에 추가 적용한 응용 모델인 MA-DTW를 제안하였다, 자동 분류 성능 평가를 위해 k-최근접 이웃(kNN) 알고리즘을 적용한 결과, ED와 DTW가 각각 마이크로 평균 F1 기준 48.2%와 66.6%의 최고 점수를 보인 데 비해, 제안 모델은 최고 74.3%의 식별 성능을 보여주었다. 종합 성능 평가를 통해 측정된 모든 지표에서, 제안 모델이 기존의 ED와 DTW에 비해 우수한 성능을 보임을 확인하였다.

Abstract

This study aims to suggest an effective method for the automatic classification of keywords with similar patterns by calculating pattern similarity of temporal data. For this, large scale news on the Web were collected and time series data composed of 120 time segments were built. To make training data set for the performance test of the proposed model, 440 representative keywords were manually classified according to 8 types of trend. This study introduces a Dynamic Time Warping(DTW) method which have been commonly used in the field of time series analytics, and proposes an application model, MA-DTW based on a Moving Average(MA) method which gives a good explanation on a tendency of trend curve. As a result of the automatic classification by a k-Nearest Neighbor(kNN) algorithm, Euclidean Distance(ED) and DTW showed 48.2% and 66.6% of maximum micro-averaged F1 score respectively, whereas the proposed model represented 74.3% of the best micro-averaged F1 score. In all respect of the comprehensive experiments, the suggested model outperformed the methods of ED and DTW.

10
정우진(성균관대학교 문헌정보학과) ; 김규리(성균관대학교 문헌정보학과) ; 유승희(성균관대학교) ; 주영준(성균관대학교) 2021, Vol.38, No.4, pp.113-128 https://doi.org/10.3743/KOSIM.2021.38.4.113
초록보기
초록

본 연구는 코로나바이러스감염증-19(이하 코로나바이러스) 백신에 대한 사회적 의견을 파악하기 위해 트위터에서 작성된 백신 관련 게시물들을 분석하였다. 2020년 3월 16일부터 2021 3월 15일까지 1년간 트위터에서 작성된 코로나바이러스 백신 이름을 키워드로 포함한 45,413개의 게시물을 수집하여 분석하였다. 데이터 수집을 위해 활용된 코로나바이러스 백신 키워드는 총 12개이며, 수집된 게시물 수순으로 ‘화이자’, ‘아스트라제네카’, ‘모더나’, ‘얀센’, ‘노바백스’, ‘시노팜’, ‘시노백’, ‘스푸트니크’, ‘바라트’, ‘캔시노’, ‘추마코프’, ‘벡토르’이다. 수집된 게시물들은 수기와 자동화된 방법을 동시 활용하여 키워드 분석, 감성 분석, 및 토픽모델링을 통하여 백신들에 대한 의견을 탐색하였다. 연구결과에 따르면 전반적으로 백신에 대한 부정적인 반응이 많았으며, 백신 접종 후유증에 대한 불안 및 백신의 효능에 대한 불신이 백신들에 대한 부정적인 주요 요소로 파악되었다. 이와는 반대로, 백신 접종에 따른 코로나바이러스 확산 억제에 대한 기대감이 백신에 대한 긍정적인 사회적 요소인 것을 확인할 수 있었다. 본 연구는 기존의 선행연구들이 뉴스 등 대중매체 데이터를 통해 코로나바이러스 백신에 대한 사회적 분위기를 파악하고자 했던 것과 달리, 소셜 미디어 데이터 수집 및 이를 활용한 키워드 분석, 감성 분석, 토픽 모델링 등의 여러 분석방법들을 사용하여 대중들의 의견을 파악하는 것으로 학술적 의의를 지닌다. 또한, 본 연구의 결과는 백신에 대한 사회적 분위기를 반영한 백신 접종 권장 정책 수립 기여라는 실질적 함의를 시사한다.

Abstract

In this study, we aimed to understand the public opinion on COVID-19 vaccine. To achieve the goal, we analyzed COVID-19 vaccine-related Twitter posts. 45,413 tweets posted from March 16, 2020 to March 15, 2021 including COVID-19 vaccine names as keywords were collected. The 12 vaccine names used for data collection included ‘Pfizer’, ‘AstraZeneca’, ‘Modena’, ‘Jansen’, ‘NovaVax’, ‘Sinopharm’, ‘SinoVac’, ‘Sputnik V’, ‘Bharat’, ‘KhanSino’, ‘Chumakov’, and ‘VECTOR’ in the order of the number of collected posts. The collected posts were analyzed manually and automatedly through keyword analysis, sentiment analysis, and topic modeling to understand the opinions for the investigated vaccines. According to the results, there were generally more negative posts about vaccines than positive posts. Anxiety about the aftereffects of vaccination and distrust in the efficacy of vaccines were identified as major negative factors for vaccines. On the contrary, the anticipation for the suppression of the spread of coronavirus following vaccination was identified as a positive social factor for vaccines. Different from previous studies that investigated opinions about COVID-19 vaccines through mass media data such as news articles, this study explores opinions of social media users using keyword analysis, sentiment analysis, and topic modeling. In addition, the results of this study can be used by governmental institutions for making policies to promote vaccination reflecting the social atmosphere.

정보관리학회지