바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: automatization, 검색결과: 67
초록보기
초록

본 연구는 비디오의 오디오 정보를 추출하여 자동으로 요약하는 알고리즘을 설계하고, 제안된 알고리즘에 의해서 구성한 오디오 요약의 품질을 평가하여 효율적인 비디오 요약의 구현 방안을 제안하였다. 구체적인 연구 결과를 살펴보면 다음과 같다. 먼저, 제안 오디오 요약의 품질이 위치 기반 오디오 요약의 품질 보다 내재적 평가에서 더 우수하게 나타났다. 이용자 평가(외재적 평가)의 요약문 정확도에서는 제안 요약문이 위치 기반 요약문 보다 더 우수한 것으로 나타났지만, 항목 선택에서는 이 두 요약문간의 성능 차이는 없는 것으로 나타났다. 이외에 비디오 브라우징을 위한 오디오 요약에 대한 이용자 만족도를 조사하였다. 끝으로 이러한 조사 결과를 기초로 하여 제안된 오디오 요약 기법을 인터넷이나 디지털 도서관에 활용하는 방안들을 제시하였다.

Abstract

The study proposed the algorithm for automatically summarizing the audio information from a video and then conducted an experiment for the evaluation of the audio extraction that was constructed based on the proposed algorithm. The research results showed that first, the recall and precision rates of the proposed method for audio summarization were higher than those of the mechanical method by which audio extraction was constructed based on the sentence location. Second, the proposed method outperformed the mechanical method in summary making tasks, although in the gist recognition task(multiple choice), there is no statistically difference between the proposed and mechanical methods. In addition, the study conducted the participants' satisfaction survey regarding the use of audio extraction for video browsing and also discussed the practical implications of the proposed method in Internet and digital library environments.

초록보기
초록

이 연구는 색인가가 주제 색인하는 과정에서 참조하는 여러 문서구성요소를 문서 범주화의 정보원으로 인식하여 이들이 문서 범주화 성능에 미치는 영향을 살펴보는데 그 목적이 있다. 이는 기존의 문서 범주화 연구가 전문(full text)에 치중하는 것과는 달리 문서구성요소로서 정보원의 영향을 평가하여 문서 범주화에 효율적으로 사용될 수 있는지를 파악하고자 한다. 전형적인 과학기술 분야의 저널 및 회의록 논문을 데이터 집합으로 하였을 때 정보원은 본문정보 중심과 문서구성요소 중심으로 나뉘어 질 수 있다. 본문정보 중심은 본론 자체와 서론과 결론으로 구성되며, 문서구성요소 중심은 제목, 인용, 출처, 초록, 키워드로 파악된다. 실험 결과를 살펴보면, 인용, 출처, 제목 정보원은 본문 정보원과 비교하여 유의한 차이를 보이지 않으며, 키워드 정보원은 본문 정보원과 비교하여 유의한 차이를 보인다. 이러한 결과는 색인가가 참고하는 문서구성요소로서의 정보원이 문서 범주화에 본문을 대신하여 효율적으로 활용될 수 있음을 보여주고 있다.

Abstract

The purpose of this study is to examine whether the information resources referenced by human indexers during indexing process are effective on Text Categorization. More specifically, information resources from bibliographic information as well as full text information were explored in the context of a typical scientific journal article data set. The experiment results pointed out that information resources such as citation, source title, and title were not significantly different with full text. Whereas keyword was found to be significantly different with full text. The findings of this study identify that information resources referenced by human indexers can be considered good candidates for text categorization for automatic subject term assignment.

초록보기
초록

이 연구에서는 한 대학도서관의 신착 도서 리스트 중 사회 과학 분야 6,253권에 대해 목차 정보를 이용하여 자동 분류를 적용하였다. 분류기는 kNN 알고리즘을 사용하였으며 자동 분류의 범주로 도서관에서 도서에 부여한 DDC 300대 강목을 사용하였다. 분류 자질은 도서의 서명과 목차를 사용하였으며, 목차는 인터넷 서점으로부터 Open API를 통해 획득하였다. 자동 분류 실험 결과, 목차 자질은 분류 재현율과 분류 정확률 모두를 향상시키는 좋은 자질임을 알 수 있었다. 또한 목차는 풍부한 자질로 불균형인 데이터의 과적합 문제를 완화시키는 것으로 나타났다. 법학과 교육학은 사회 과학 분야에서 특정성이 높아 서명 자질만으로도 좋은 분류 성능을 가져오는 점도 파악할 수 있었다.

Abstract

This study applied automatic classification using table of contents (TOC) text for 6,253 social science books from a newly arrived list collected by a university library. The k-nearest neighbors (kNN) algorithm was used as a classifier, and the ten divisions on the second level of the DDC’s main class 300 given to books by the library were used as classes (labels). The features used in this study were keywords extracted from titles and TOCs of the books. The TOCs were obtained through the OpenAPI from an Internet bookstore. As a result, it was found that the TOC features were good for improving both classification recall and precision. The TOC was shown to reduce the overfitting problem of imbalanced data with its rich features. Law and education have high topic specificity in the field of social sciences, so the only title features can bring good classification performance in these fields.

초록보기
초록

빅 데이터 시대에 접어들면서 저장 기술과 처리 기술이 급속도로 발전함에 따라, 과거에는 간과되었던 롱테일(long tail) 데이터가 많은 기업과 연구자들에게 관심의 대상이 되고 있다. 본 연구는 롱테일 법칙의 영역에 존재하는 데이터의 활용률을 높이기 위해 텍스트 마이닝 기반의 기술 용어 네트워크 생성 및 통제 기법을 제안한다. 특히 텍스트 마이닝의 편집 거리(edit distance) 기법을 이용해 학문 분야에서 사용되는 기술 용어의 상호 네트워크를 자동으로 생성하는 효과적인 방안을 제시하였다. 데이터의 활용률 향상 실험을 위한 데이터 수집을 위해 LOD(linked open data) 환경을 이용하였으며, 이 과정에서 효과적으로 LOD 시스템의 데이터를 활용하는 기법과 용어의 패턴 처리 알고리즘을 제안하였다. 마지막으로, 생성된 기술 용어 네트워크의 성능 측정을 통해 제안한 기법이 롱테일 데이터의 활용률 제고에 효과적이었음을 확인하였다.

Abstract

As data management and processing techniques have been developed rapidly in the era of big data, nowadays a lot of business companies and researchers have been interested in long tail data which were ignored in the past. This study proposes methods for generating and controlling a network of technical terms based on text mining technique to enhance data utilization in the distribution of long tail theory. Especially, an edit distance technique of text mining has given us efficient methods to automatically create an interlinking network of technical terms in the scholarly field. We have also used linked open data system to gather experimental data to improve data utilization and proposed effective methods to use data of LOD systems and algorithm to recognize patterns of terms. Finally, the performance evaluation test of the network of technical terms has shown that the proposed methods were useful to enhance the rate of data utilization.

초록보기
초록

최근에 이르러 차세대 웹 아키텍처인 시멘틱 웹에 관한 연구와 투자에 대한 관심이 계속해서 증대되고 있다. 정보학적인 관점에서, 차세대 웹 아키텍처인 시멘틱 웹은 하나의 거대한 메타데이터 조직으로 볼 수 있다. 시멘틱 웹을 거대한 메타데이터 조직으로 볼 수 있는 가장 큰 이유는, 시멘틱 웹을 구축과정에서 가장 중요한 단계 중 하나가 웹 정보자원에 대한 정형화된 메타데이터를 작성하는 것이기 때문이며, 이용자는 메타데이터를 이용하여 보다 쉽게 자신이 원하는 정보를 찾을 수 있다. 본 논문에서는, 시멘틱 웹 환경 하에서 서로 다른 정보체계구조를 지닌 개방형 전자도서관간의 상호운영성을 제공하기 위하여 새로운 방식의 응용프로화일 메타데이터구조를 개발하였다. 새로운 방식의 응용프로화일 메타데이터구조를 토대로, 개방형도서관모델에서 서로 다른 형태의 대규모 메타데이터를 통합하기 위한 공동서지목록 자동생성 및 통합검색 알고리즘을 개발하였다.

Abstract

Recently there has been a growing interest in the investigation and development of the next generation web - the Semantic Web. From the perspective of a information science, the next generation web - Semantic Web is a metadata initiative. It is reason that One of important stage of Semantic Web Construction is adding formal metadata that describes a Web resource's content and so people can find easy material using metadata. In this paper, We designed new application profile metadata architecture as a way to serve as interoperability between various open digital libraries using different information architecture in Semantic Web environment. Based on new application profile metadata architecture, we developed union catalog automatic generation and union search algorithm to integrate heterogeneous huge-scale metadata in open digital library.

56
강윤호(대림대학 문헌정보과) ; 박영애(경기대학교 문헌정보학과) 2009, Vol.26, No.3, pp.417-434 https://doi.org/10.3743/KOSIM.2009.26.3.417
초록보기
초록

국가도서관통계시스템에서 요구하는 통계항목들은 이론적 견지에서 보면 도서관평가 또는 도서관운영 정책수립을 위해 필요한 데이터를 기반으로 한 항목들이라고 할 수 있다. 그러나 국가도서관통계시스템에서 요구하는 통계항목과 공공도서관현장에서 일반적으로 수집될 수 있는 통계항목들과는 차이가 있음을 알 수 있다. 따라서 공공도서관 평가로 활용되고 있는 국가도서관통계가 신뢰할 수 있는 또는 타당성이 있는 객관적 데이터인지를 알아보기 위하여, 공공도서관 현장에서 통계를 수집할 수 있는 근거자료인 도서관 업무(운영)일지의 항목들을 분석하고 아울러 통계의 자동수집이 가능한 도서관리 프로그램에 대한 공공도서관에서의 사용 현황을 조사하였다. 이 연구의 분석 자료는 향후 공공도서관 업무(운영)일지의 표준안 마련을 위한 기초 자료로 활용될 것이다.

Abstract

Statistics items required by National Library Statistics System are based on data for library evaluation and policy making of library management from a theoretical standpoint. However, It is realized there are differences between Statistics items required by National Library Statistics System and those can be collected at the field of public libraries. In accordance with this point, this paper contained an analysis of a working diary log of public libraries as a basic material able to collect data at the field of public libraries and also surveyed the present usage situation of Library Management Program able to automatically collect data to recognize that National Library Statistics is reliably or validly objective data. An analysis data of this research will be a basic material to plan the standard guide of a working diary log of public libraries from now on.

57
강주연(전북대학교 기록관리학과) ; 김태영(전북대학교) ; 최정원(전북대학교) ; 오효정(전북대학교) 2016, Vol.33, No.3, pp.263-285 https://doi.org/10.3743/KOSIM.2016.33.3.263
초록보기
초록

요즘 커뮤니케이션 수단으로 가장 각광받고 있는 도구는 소셜네트워크서비스(Social Network Service, 이하 SNS)로, 이용자들의 접근성과 편의성을 증진시키는 가장 효과적인 서비스로 자리 잡았다. 본 연구에서는 가장 대표적인 SNS 서비스 중 자동수집이 가능한 서비스인 트위터(Twittter)를 선정, 국내외 국립기록관의 트위터 운용 현황을 비교 분석하고 그 특징을 파악함으로써 이용자들의 관심도를 향상시키기 위한 활성화 방안을 제언하고자 한다. 이를 위해 미국의 NARA를 비롯해 영국의 TNA, 호주의 NAA와 국내의 국가기록원의 트윗(tweet)을 수집하고 이에 대한 정보 유형 분석과 시계열 분석을 실시하였다. 정보 유형 분석은 국립기록관이 제공하는 정보가 이용자의 정보 요구에 부응하는가를 살펴보는데 목적이 있으며 시계열 분석은 시간의 추이에 따른 이용자의 반응 추이를 살펴보는데 그 목적이 있다. 각국의 국립기록관 트위터 운용의 비교분석을 통해 4가지의 특성을 도출하였으며 이를 바탕으로 우리나라 국가기록원의 트위터 활성화 방안을 제언하였다.

Abstract

Nowadays, Social Network Service (SNS), which has been in the spotlight as a way of communication, has become a most effective tool to improve easy of information use and accessibility for users. In this paper, we chose Twitter as the most representative SNS services because of automatic crawling and investigated tweet data gathered from domestic and foreign National Archives - NARA of U.S.A., TNA of U.K.. NAA of Australia, and National Archives of Korea. We also conducted information genres analysis and trend analysis by timeline. Information genres analysis shows how archives satisfied users’ information needs as well as trends analysis of tweets helps to understand how users’ interestedness was changed. Based on comparison results, we distilled four characteristics of National Archives and suggested vitalization ways for National Archives of Korea.

초록보기
초록

전자문서는 사람이 판독할 수 있는 문서 측면과 시스템이 이해하고 자동 처리할 수 있는 전자적 측면을 모두 갖추고 있어서 가용성이 뛰어나다. 전자문서를 이용하는 목적이 가용성이라면 이 특성이 잘 발휘되어 효과적이고 효율적인 전자문서유통이 되도록 강구하여야 할 것이다. 정부의 전자문서유통 상황은 종래의 종이문서 중심 사고방식과 각 부처별 업무중심 관점에서 아직 벗어나지 못하여 이러한 장점을 충분히 살리지 못하고 있다. 본 논문에서는 전자문서유통의 발전 방향을 제시하여 향후 방대하게 생산될 전자문서의 효용을 높이는 데에 도움을 주는 것을 목적으로 하였다. 우선 전자문서의 개념을 정의하고 XML을 이용하여 문서의 구조정보를 표현하는 이유와 한계, 정부 전자문서유통의 문제점을 설명하였다. 그리고 향후 정보 표현 방안, 문서 구성 방안과 표준 관리 방안을 제시하였다.

Abstract

The electronic documents have the documental aspect that can legible by human and the electronic aspect that can be interpreted and processed automatically by machinery. This usability of electronic documents must be the reason that people use them in almost all the business areas rapidly in these days. That is because we have to utilize the characteristics to interchange electronic documents(EDI) effectively and efficiently. The electronic document interchange of Korean government cannot make the best of this benefit due to the traditional way of thinking based on paper document and the viewpoint of individual business, organization, and project. This paper proposed a direction of EDI for Korean government. At first, the concept of electronic docuemnts is defined. The reason and limitations of structuring the documents with XML and the hidden problems of present EDI in Korean public sector are also explained. And the way to preserve information, to design the structure of electronic document, and to maintain relevant standards is proposed.

초록보기
초록

본 논문에서는 온라인 뉴스 기사에서 자동으로 추출된 키워드 집합을 활용하여 특정 시점에서의 세부 주제별 토픽을 추출하고 정형화하는 새로운 방법론을 제시한다. 이를 위해서, 우선 다량의 텍스트 집합에 존재하는 개별 단어들의 중요도를 측정할 수 있는 복수의 통계적 가중치 모델들에 대한 비교 실험을 통해 TF-IDF 모델을 선정하였고 이를 활용하여 주요 키워드 집합을 추출하였다. 또한 추출된 키워드들 간의 의미적 연관성을 효과적으로 계산하기 위해서 별도로 수집된 약 1,000,000건 규모의 뉴스 기사를 활용하여 단어 임베딩 벡터 집합을 구성하였다. 추출된 개별 키워드들은 임베딩 벡터 형태로 수치화되고 K-평균 알고리즘을 통해 클러스터링 된다. 최종적으로 도출된 각각의 키워드 군집에 대한 정성적인 심층 분석 결과, 대부분의 군집들이 레이블을 쉽게 부여할 수 있을 정도로 충분한 의미적 집중성을 가진 토픽들로 평가되었다.

Abstract

In this paper, we propose a new methodology for extracting and formalizing subjective topics at a specific time using a set of keywords extracted automatically from online news articles. To do this, we first extracted a set of keywords by applying TF-IDF methods selected by a series of comparative experiments on various statistical weighting schemes that can measure the importance of individual words in a large set of texts. In order to effectively calculate the semantic relation between extracted keywords, a set of word embedding vectors was constructed by using about 1,000,000 news articles collected separately. Individual keywords extracted were quantified in the form of numerical vectors and clustered by K-means algorithm. As a result of qualitative in-depth analysis of each keyword cluster finally obtained, we witnessed that most of the clusters were evaluated as appropriate topics with sufficient semantic concentration for us to easily assign labels to them.

초록보기
초록

정보통신기술의 발달로 학술 정보의 양이 기하급수적으로 증가하였고 방대한 양의 텍스트 데이터를 처리하기 위한 자동화된 텍스트 처리의 필요성이 대두되었다. 생의학 문헌에서 생물학적 의미와 치료 효과 등에 대한 정보를 발견해내는 바이오 텍스트 마이닝은 문헌 내의 각 개념들 간의 유의미한 연관성을 발견하여 의학 영역에서 상당한 시간과 비용을 줄여준다. 문헌 기반 발견 연구로 새로운 생의학적 가설들이 발견되었지만 기존의 연구들은 반자동화된 기법으로 전문가의 개입이 필수적이며 원인과 결과의 한가지의 관계만을 밝히는 제한점이 있다. 따라서 본 연구에서는 중간 개념인 B를 다수준으로 확장하여 다양한 관계성을 동시출현 개체와 동사 추출을 통해 확인한다. 그래프 기반의 경로 추론을 통해 각 노드 사이의 관계성을 체계적으로 분석하여 규명할 수 있었으며 새로운 방법론적 시도를 통해 기존에 밝혀지지 않았던 새로운 가설 제시의 가능성을 기대할 수 있다.

Abstract

Due to the recent development of Information and Communication Technologies (ICT), the amount of research publications has increased exponentially. In response to this rapid growth, the demand of automated text processing methods has risen to deal with massive amount of text data. Biomedical text mining discovering hidden biological meanings and treatments from biomedical literatures becomes a pivotal methodology and it helps medical disciplines reduce the time and cost. Many researchers have conducted literature-based discovery studies to generate new hypotheses. However, existing approaches either require intensive manual process of during the procedures or a semi-automatic procedure to find and select biomedical entities. In addition, they had limitations of showing one dimension that is, the cause-and-effect relationship between two concepts. Thus, this study proposed a novel approach to discover various relationships among source and target concepts and their intermediate concepts by expanding intermediate concepts to multi-levels. This study provided distinct perspectives for literature-based discovery by not only discovering the meaningful relationship among concepts in biomedical literature through graph-based path interference but also being able to generate feasible new hypotheses.

정보관리학회지