바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: 기술요소, 검색결과: 53
초록보기
초록

본 연구는 문헌사를 대치하는 구술사에 관하여 기록물로서의 중요성을 제시하면서 구술사 기록물을 구조화 할 수 있는 표준 메타데이터 모형과 설계 요소를 개발 하고자 하였다. 이를 위하여 구술사 기록의 내용과 형태를 정보원으로 표현할 수 있는 표준 메타데이터 기술 요소를 분석하였으며, 디지털 구술 아카이빙 구축을 위하여 프로젝트, 관리, 레코드 그리고 관련 레코드 영역으로 메타데이터 모델링을 설계 하였다. 또한 기본 요소와 세부 요소, 구분 요소의 설계 원칙에 의하여 실제 구술사 기록물을 대상으로 구현을 통해 적용 해 보았다.

Abstract

This study is aimed to develop standard metadata model and develop elements and present the importance of oral history archives that contrast with literature history. The study analyzed standard metadata description elements that can express contents and forms of oral history archives as information. Furthermore, it designed Project, Management, Record, and metadata modeling as a Related record domain for the sake of building digital oral archives. Finally, the study gave shape to real oral history archives based on basic elements, details, and design principles of division elements.

초록보기
초록

본 연구는 공공기관에서 생산되는 기록물로서 가장 일반적이고 대표적인 공문서를 효율적으로 관리하고 활용할 수 있도록 생산단계에서 메타데이터 정보를 획득, 관리하는데 그 목적이 있다. 공문서는 행정정보의 근원이면서 생산기관의 의사결정을 표현하고 실현하는 핵심주체로서, 생산된 공문서는 체계적으로 관리함과 동시에 효율적으로 활용할 수 있는 시스템이 구축되어야 한다. 이를 위해 공문서 관련 주요 양식의 구조 분석을 통해 항목별로 관련 데이터 요소를 추출하였으며, 추출된 요소는 국제표준기록물 기술의 데이터 요소와 상호 비교, 분석하여 공문서의 생산배경 및 의도, 특징 등이 충분히 반영된 공문서 메타데이터 요소를 영역별로 구분하여 선정하였다. 이는 향후 우리나라 환경에 적합한 표준화된 기록물 메타데이터를 구축하는데 유용한 기초자료로 활용할 수 있을 것이다.

Abstract

This study aims to collect and manage in the step of creation metadata information to effectively manage and use official document which is a typical and normal records. To do it, data elements are extracted through analyzing structure of official document format. And we also select metadata elements reflecting creation background, publisher's intention, characteristic of official documents through evaluating and comparing extracted elements with data elements defined in ISAD rules. It would be draft data in constructing standardized metadata structure for records in Korea.

13
김선욱(경북대학교 사회과학대학 문헌정보학과) ; 이혜경(경북대학교 문헌정보학과) ; 이용구(경북대학교) 2023, Vol.40, No.2, pp.183-209 https://doi.org/10.3743/KOSIM.2023.40.2.183
초록보기
초록

이 연구의 목적은 ChatGPT가 도서의 표지, 표제지, 판권기 데이터를 활용하여 생성한 더블린코어의 품질 평가를 통하여 ChatGPT의 메타데이터의 생성 능력과 그 가능성을 확인하는 데 있다. 이를 위하여 90건의 도서의 표지, 표제지와 판권기 데이터를 수집하여 ChatGPT에 입력하고 더블린 코어를 생성하게 하였으며, 산출물에 대해 완전성과 정확성 척도로 성능을 파악하였다. 그 결과, 전체 데이터에 있어 완전성은 0.87, 정확성은 0.71로 준수한 수준이었다. 요소별로 성능을 보면 Title, Creator, Publisher, Date, Identifier, Right, Language 요소가 다른 요소에 비해 상대적으로 높은 성능을 보였다. Subject와 Description 요소는 완전성과 정확성에 대해 다소 낮은 성능을 보였으나, 이들 요소에서 ChatGPT의 장점으로 알려진 생성 능력을 확인할 수 있었다. 한편, DDC 주류인 사회과학과 기술과학 분야에서 Contributor 요소의 정확성이 다소 낮았는데, 이는 ChatGPT의 책임표시사항 추출 오류 및 데이터 자체에서 메타데이터 요소용 서지 기술 내용의 누락, ChatGPT가 지닌 영어 위주의 학습데이터 구성 등에 따른 것으로 판단하였다.

Abstract

The purpose of this study is to evaluate the Dublin Core metadata generated by ChatGPT using book covers, title pages, and colophons from a collection of books. To achieve this, we collected book covers, title pages, and colophons from 90 books and inputted them into ChatGPT to generate Dublin Core metadata. The performance was evaluated in terms of completeness and accuracy. The overall results showed a satisfactory level of completeness at 0.87 and accuracy at 0.71. Among the individual elements, Title, Creator, Publisher, Date, Identifier, Rights, and Language exhibited higher performance. Subject and Description elements showed relatively lower performance in terms of completeness and accuracy, but it confirmed the generation capability known as the inherent strength of ChatGPT. On the other hand, books in the sections of social sciences and technology of DDC showed slightly lower accuracy in the Contributor element. This was attributed to ChatGPT’s attribution extraction errors, omissions in the original bibliographic description contents for metadata, and the language composition of the training data used by ChatGPT.

초록보기
초록

이 연구는 색인가가 주제 색인하는 과정에서 참조하는 여러 문서구성요소를 문서 범주화의 정보원으로 인식하여 이들이 문서 범주화 성능에 미치는 영향을 살펴보는데 그 목적이 있다. 이는 기존의 문서 범주화 연구가 전문(full text)에 치중하는 것과는 달리 문서구성요소로서 정보원의 영향을 평가하여 문서 범주화에 효율적으로 사용될 수 있는지를 파악하고자 한다. 전형적인 과학기술 분야의 저널 및 회의록 논문을 데이터 집합으로 하였을 때 정보원은 본문정보 중심과 문서구성요소 중심으로 나뉘어 질 수 있다. 본문정보 중심은 본론 자체와 서론과 결론으로 구성되며, 문서구성요소 중심은 제목, 인용, 출처, 초록, 키워드로 파악된다. 실험 결과를 살펴보면, 인용, 출처, 제목 정보원은 본문 정보원과 비교하여 유의한 차이를 보이지 않으며, 키워드 정보원은 본문 정보원과 비교하여 유의한 차이를 보인다. 이러한 결과는 색인가가 참고하는 문서구성요소로서의 정보원이 문서 범주화에 본문을 대신하여 효율적으로 활용될 수 있음을 보여주고 있다.

Abstract

The purpose of this study is to examine whether the information resources referenced by human indexers during indexing process are effective on Text Categorization. More specifically, information resources from bibliographic information as well as full text information were explored in the context of a typical scientific journal article data set. The experiment results pointed out that information resources such as citation, source title, and title were not significantly different with full text. Whereas keyword was found to be significantly different with full text. The findings of this study identify that information resources referenced by human indexers can be considered good candidates for text categorization for automatic subject term assignment.

초록보기
초록

본 연구는 Zeithaml과 Bitner모형을 도서관 E-Service품질 연구를 위해 수정 제안하고자 하는데 그 목적이 있다. 연구 목적을 달성하기 위해 문헌조사방법을 사용하였으며 연구결과 ‘환경적 품질’이 도서관 E-Service품질에 대한 소비자인식을 결정하는데 있어서 가장 중요한 요소임이 밝혀졌다. 이와 더불어 기존의 E-Service 관련연구와 사용성연구와의 비교 분석을 통해 도서관 E-Service를 위한 ‘환경적 품질’의 하부차원들을 제시하였다. 도서관 E-Service의 ‘환경적 품질’에 영향을 미치는 요소로서는 ‘기술적 요소에 대한 개인적 인식’과 ‘과거의 유사서비스 사용경험’이 중요한 것으로 나타났다.

Abstract

The purpose of this study is to suggest a revised model for library e-service quality research based on Zeithaml & Bitner's model. To achieve this purpose, this study reviews the previous literature related to the study of service quality and e-service. According to the study results, ‘physical quality’ is the most important factor which influences on the customer perceptions of library e-service quality. Furthermore, this study suggests eight service quality dimensions of ‘physical quality’ for library e-service. In addition, customer's personal factors and previous experiences with similar services can be regarded as important factors which influence on the ‘physical quality’ of library e-service.

초록보기
초록

본 연구에서는 방송자료에 대한 지적 접근점을 제공하기 위한 방편으로, 뉴스 및 시사보도 프로그램의 내용 기술을 위한 패싯 분석 기법의 적용을 시도하였다. 랑가나단의 PMEST 기본 패싯에 기반하여, 보도 장르에 적합한 기본 패싯-‘누가’, ‘무엇을’, ‘어떻게’, ‘어디서’, ‘언제’-을 생성하였으며, 보도 장르의 형식적 구조와 내용적 요소를 반영하여 패싯의 구성요소를 추출하였다. 이를 실제 방영한 시사보도 프로그램을 대상으로 적용해 본 결과, 본 연구에서 제안한 패싯이 보도 장르의 맥락적 요소를 잘 표현해주고 있었으며, 패싯의 적용은 특정 방송내용에 대한 식별을 증진시킬 것으로 기대되었다.

Abstract

This study aims to provide intellectual access to TV content using faceted classification. In order to describe the content of news and current affairs programs, a faceted approach was explored. Based on the Ranganathan’s PMEST formula, the basic facets - ‘who’, ‘what’, ‘how’, ‘where’, ‘when’ - and their sub-facets were created, specifically for describing the news genre. Additionally, the formal structure and the contextual features of the news genre were mainly considered for creating sub-facets. These created facets were applied to a news genre program. The result shows that these suggested facets are useful for representing well the contextual components of the news genre. The application of faceted classification is expected to improve the identification of the specific TV content.

초록보기
초록

본 연구에서는 도서관과 정보센터에서 전통적으로 제공되어진 SDI 서비스와 함께 일부 기관에서 제공하고 있는 맞춤정보 서비스를 기반으로 한 개인화 정보 서비스 시스템의 기술요소 및 전체 시스템의 구조를 제안하였다. 제안된 개인화 정보 서비스 시스템은 이용자의 개인 프로파일정보를 바탕으로 이용자의 정보탐색행태 등을 추가 입력 값으로 해서 학습과정을 거쳐 이용자에게 가장 적절한 정보를 출력 값으로 제공할 수 있다. 이를 위해 개인화 정보 서비스 시스템에서 가장 중요한 기능을 수행하는 학습시스템과 추천시스템을 구축하는데 필요한 요소에 대해 살펴보았다.

Abstract

With SDI service provided in libraries and information centers traditionally, this paper studies component technologies and structure of system platform in PIS (personalization information service based on the customized information service served currently in some institutions. The PIS system should provide relevant information as an output through the learning system analyzing user information searching behavior as an input value with personal profile information. To do it, this paper studies requirements and algorithms to develop PIS, and proposes learning system and recommendation system as core components in PIS.

18
정도헌(덕성여자대학교) ; 주황수(덕성여자대학교) 2018, Vol.35, No.3, pp.77-100 https://doi.org/10.3743/KOSIM.2018.35.3.077
초록보기
초록

본 연구는 텍스트 마이닝 기법을 활용하여 대량의 데이터로부터 학제 간 융합 기술을 발굴하는 일련의 과정을 제시하는 것을 목표로 한다. 바이오공학 기술(BT) 분야와 정보통신 기술(ICT) 분야 간의 융합 연구를 위해 (1) BT 분야의 기술용어 목록을 작성하여 대량의 학술논문 메타데이터를 수집한 후 (2) 패스파인더 네트워크 척도 알고리즘을 이용해 유망 기술의 지식 구조를 생성하고 (3) 토픽 모델링 기법을 사용하여 BT분야 중심의 내용 분석을 수행하였다. 다음 단계인 BT-ICT 융합 기술 아이템 도출을 위해, (4) BT-ICT 관련 정보를 얻기 위해 BT 기술용어 목록을 상위 개념으로 확장한 후 (5) OpenAPI 서비스를 이용하여 두 분야가 관련된 학술 정보의 메타데이터를 자동 수집하여 (6) BT-ICT 토픽 모델의 내용 분석을 실시하였다. 연구를 통해 첫째, 융합 기술의 발굴을 위해서는 기술 용어 목록의 작성이 중요한 지식 베이스가 된다는 점과 둘째, 대량의 수집 문헌을 분석하기 위해서는 데이터의 차원을 줄여 분석을 용이하게 해주는 텍스트 마이닝 기법이 필요하다는 점을 확인하였다. 본 연구에서 제안한 데이터 처리 및 분석 과정이 학제 간 융합 연구의 가능성이 있는 기술 요소들을 발굴하는 데 효과적이었음을 확인할 수 있었다.

Abstract

The objectives of this study is to present a discovering process of interdisciplinary convergence technology using text mining of big data. For the convergence research of biotechnology(BT) and information communications technology (ICT), the following processes were performed. (1) Collecting sufficient meta data of research articles based on BT terminology list. (2) Generating intellectual structure of emerging technologies by using a Pathfinder network scaling algorithm. (3) Analyzing contents with topic modeling. Next three steps were also used to derive items of BT-ICT convergence technology. (4) Expanding BT terminology list into superior concepts of technology to obtain ICT-related information from BT. (5) Automatically collecting meta data of research articles of two fields by using OpenAPI service. (6) Analyzing contents of BT-ICT topic models. Our study proclaims the following findings. Firstly, terminology list can be an important knowledge base for discovering convergence technologies. Secondly, the analysis of a large quantity of literature requires text mining that facilitates the analysis by reducing the dimension of the data. The methodology we suggest here to process and analyze data is efficient to discover technologies with high possibility of interdisciplinary convergence.

초록보기
초록

이 연구는 보존 기록 자료로서의 우리의 고전 장서를 보다 안전하게 보호하고 연구자나 이용자들에게는 시공을 초월한 열람이 가능토록 하기 위한 디지털 도서관으로서의 방법을 모색하는 데 목적이 있다. 즉, 우선 동양 전래의 사부 분류법과 현대적인 주제 분류, 그리고 색인어 등을 통해 다양한 접근점을 제공하고, 둘째, MARC나 XML 등을 활용한 DL시스템을 구축하되, 서지적 기술요소를 최대한 확대시키며, 셋째, 쉬운 해제와 색인어로 이용자의 이해를 극대화하고, 마지막으로 원본의 손상을 막기 위해 원문 DB를 구축하여 열람용으로 사용한다. 이는 향후 국내외 한국 고전 관련기관과 협력, 공유할 수 있는 네트워크 체제를 통해 국제적 서지통정으로 발전될 수 있을 것이다.

Abstract

The most of all, this study is planned to search an ideal methods to develop the digital library system for our korean ancient books for their safe preservation and, at the same time, for their perusal of transcendental time and space : first, to offer the various access points like traditional oriental Four parts Classics classification, current subject classification and index keyword, etc. ; second, to program a digital library system using MARC or XML, but with all bibliographic descriptive elements as possible; third, to prepare the more easy annotated bibliography and index for users' better comprehension, and last, to build original text database for practical reading to avoid the damage of original text. This type of korean ancient books digital library will be developed to the real international bibliographic control by networking enter the same kinds of internal and external organizations.

20
한성국(원광대학교) ; 이현실(원광대학교) 2007, Vol.24, No.3, pp.245-269 https://doi.org/10.3743/KOSIM.2007.24.3.245
초록보기
초록

유비쿼터스 정보 환경하에서 정보자원의 공유와 상호 교환을 위한 정보자원의 구조와 내용 기술에 표준 메타데이터 체계가 이용되고 있다. 실제 응용 도메인에서는 다수의 메타데이터 요소를 혼합-일치 방식으로 재사용하여 응용 시스템을 구축하게 되는데, 이때 메타데이터 요소의 상세화와 상호 운용성 등의 문제가 발생한다. 메타데이터 활용에서 발생하는 문제 해결에 응용 프로파일 접근 방식이 이용되고 있다. 본 논문에서는 응용 프로파일의 목적과 기능을 달성할 수 있는 응용 프로파일 코어 온톨로지를 제시하고, 이를 기반으로 한 메타데이터 응용 시스템 구축에 대하여 서술하였다.

Abstract

The standard metadata systems are very popular for the description of structures and semantics of information resources to realize sharing and exchanging information in global ubiquitous environment. In real application domain, various metadata elements are reused together with mix-and-match manner. An application system using diverse metadata systems is compelled with refinement and interoperability of metadata elements. Application profile is the general approach to resolve the various problems occurred in metadata application systems. This paper proposes Application Profile Core Ontology (APO) that can achieve the goals and functions of application profile, and describes metadata application system based on APO.

정보관리학회지