바로가기메뉴

본문 바로가기 주메뉴 바로가기

logo

검색어: Selecting, 검색결과: 171
초록보기
초록

해외에 진출한 국내기업의 소송 사례가 증가하면서 기업들의 전자증거개시제도의 대응에 대한 요구가 증가하고 있다. 영미법에서 유래된 제도인 전자증거개시제도는 절차 진행과정에서 여러 곳에 산재해 있는 전자적 정보들을 중 제한된 시간 내에 소송과 관련된 전자적 정보들을 찾아 증거자료로 검토하여 제출하는 제도이다. 이는 하루에도 수많은 전자기록이 생산되는 국내기업들의 기록관리가 잘 이루어지지 않고 있는 현실에서 제한된 시간 이내에 증거자료를 추리고 검토하여 제출하는 것은 쉽지 않은 일이다. 검토대상을 줄이고 검토과정을 효율적으로 진행하는 것은 소송에서 승소를 위한 가장 중요한 과제 중 하나이다. Predictive Coding은 전자증거개시 검토 과정에서 사용되는 도구로써 기계학습을 이용하여 기업들이 보유하고 있는 전자적 정보들의 검토를 도와주는 도구이다. Predictive Coding이 기존의 검색 도구보다 효율성이 높고 잠재적으로 소송과 관련된 전자적 정보를 추려내는데 강점이 있다고 판단된다. 기업의 효율적인 검색도구의 선택과 지속적인 기록관리를 통해 검토비용의 시간적, 비용적 절감을 꾀할 수 있을 것으로 예상된다. 따라서 기업은 전자증거개시 제도에 대응하기 위해서 시간과 비용적 측면을 고려한 전문적인 Predictive Coding 솔루션의 도입과 기업 기록관리를 통해 가장 효과적인 방법을 모색해야 할 것이다.

Abstract

As the domestic companies which have made inroads into foreign markets have more lawsuits, these companies’ demands for responding to E-Discovery are also increasing. E-Discovery, derived from Anglo-American law, is the system to find electronic evidences related to lawsuits among scattered electronic data within limited time, to review them as evidences, and to submit them. It is not difficult to find, select, review, and submit evidences within limited time given the reality that the domestic companies do not manage their records even though lots of electronic records are produced everyday. To reduce items to be reviewed and proceed the process efficiently is one of the most important tasks to win a lawsuit. The Predictive Coding is a computer assisted review instrument used in reviewing process of E-Discovery, which is to help companies review their own electronic data using mechanical learning. Predictive Coding is more efficient than the previous computer assister review tools and has a merit to select electronic data related to lawsuit. Through companies’ selection of efficient computer assisted review instrument and continuous records management, it is expected that time and cost for reviewing will be saved. Therefore, in for companies to respond to E-Discovery, it is required to seek the most effective method through introduction of the professional Predictive Coding solution and Business records management with consideration of time and cost.

42
최보윤(이화여자대학교 문헌정보학과) ; 정은경(이화여자대학교) 2015, Vol.32, No.3, pp.131-154 https://doi.org/10.3743/KOSIM.2015.32.3.131
초록보기
초록

이용자 관점에서 도서관 서비스에 대한 품질 평가는 시간의 흐름과 정보기술과 같은 환경에 따라 변화한다. 따라서 도서관은 서비스 품질과 이용자 만족도를 지속적으로 측정하여 새로운 환경에 필요한 개선점을 도출할 필요가 있다. 본 연구의 목적은 국내외 대학도서관을 대상으로 LibQUAL+ 서비스 품질 평가 결과의 변화와 경향을 분석하고 개선 방향을 규명하고자 하였다. 이를 위해 국내외 대학도서관 각각 1개관을 선정하였다. 캐나다 맥길대학교 도서관은 6년간 누적된 LibQUAL+결과를 대상으로 하였으며, 국내 A대학은 2012년 결과와 본 연구에서 수행한 2015년 결과를 분석하였다. 분석방법으로는 방사형 차트, 막대 차트, 그래프를 이용하여 LibQUAL+ 22개 항목, 3개 차원에 대한 이상 기대치, 실제 인식치, 최소 기대치와 적정성 갭, 우수성 갭의 변화를 비교․분석하였다. 분석 결과는 연도별, 학부생과 대학원생의 도서관 서비스에 대한 인식수준의 변화 및 기대수준에 있어 현저한 차이가 있음을 보여주었다. 특히, A대학의 분석결과는 이용자들의 전반적인 도서관의 기대수준이 향상되었으나 이에 반해 인식수준은 낮은 것으로 나타났다. 또한 이러한 결과는 이용자의 집단(학부생, 대학원생)에 따라 큰 차이를 보였다. 따라서 대학도서관 서비스는 직원, 자원, 시설 차원에 대한 개선방안이 필요하며, 개별 이용자 그룹에 특화된 서비스 개선이 필요한 것으로 나타났다.

Abstract

Users tend to perceive differently the service quality of library depending on the advance of digital information technologies. It is necessary to analyze the cumulative results of LibQUAL+ in order to identify the suggestions for improvement of library services. This study aims to comparatively analyze the results of LibQUAL+ and demonstrate the trends and changes for the services of university library. To achieve the purpose of this study, two university libraries were selected for analysis. The library of McGill University in Canada was selected with the six years’ results of LibQUAL+. Another library located in Seoul was selected with the 2012 result of LibQUAL+ and a new LibQUAL+ in 20015 was conducted for this study. The results were analyzed with three dimensions and 22 items in terms of circular chart, bar chart, and graph. Findings of this study indicated that there were substantial differences in terms of years of LibQUAL+ survey and user groups with undergraduate/graduate students in three dimensions. In particular, the results of A library showed that users were likely to expect more from the university library, but they perceived low service quality. In addition, there was found considerable differences among users groups in terms of undergraduate and graduate students. The improvements for library services need to focus on three dimensions such as staff, resources, and facilities as well as customized services for individual user groups.

43
이지숙(NHN㈜) ; 정영미(연세대학교) 2007, Vol.24, No.3, pp.201-218 https://doi.org/10.3743/KOSIM.2007.24.3.201
초록보기
초록

이 연구에서는 TREC이 제시한 토픽 검색의 정의에 따라 질의에 적합한 웹 사이트를 검색하는 효과적인 토픽 검색 알고리즘을 제안하고 실험을 통해 그 성능을 평가하였다. 이 연구의 토픽 검색 알고리즘은 먼저 질의에 대한 웹 페이지 검색 결과로부터 적합한 웹 사이트를 선정한 다음, 선정된 사이트의 구조를 이용하여 질의에 대한 적합성 점수를 산출한다. TREC의 .GOV 실험 문헌 집단과 TREC-2004 실험의 질의 및 적합문헌 리스트를 이용한 검색 실험 결과 이 토픽 검색 알고리즘은 상위 10위 안에 최소 2개 이상의 적합 사이트를 검색하여 비교적 높은 수준의 성능을 보였다. 또한 TREC-2004의 적합문헌 리스트 분석을 통해 적합문헌 선정에 토픽 검색의 정의가 엄격하게 적용되지 않은 경우가 있음을 확인하고, 수정된 적합문헌 리스트를 이용하여 토픽 검색 성능을 재평가한 결과 이 연구에서 제안한 토픽 검색 알고리즘의 성능이 월등히 향상되었다.

Abstract

This study proposes a topic distillation algorithm that ranks the relevant sites selected from retrieved web pages, and evaluates the performance of the algorithm. The algorithm calculates the topic score of a site using its hierarchical structure. The TREC .GOV test collection and a set of TREC-2004 queries for topic distillation task are used for the experiment. The experimental results showed the algorithm returned at least 2 relevant sites in top ten retrieval results. We performed an in-depth analysis of the relevant sites list provided by TREC-2004 to find out that the definition of topic distillation was not strictly applied in selecting relevant sites. When we re-evaluated the retrieved sites/sub-sites using the revised list of relevant sites, the performance of the proposed algorithm was improved significantly.

44
권소담(서울대학교 중앙도서관 사서) ; 남영준(중앙대학교) 2018, Vol.35, No.4, pp.263-284 https://doi.org/10.3743/KOSIM.2018.35.4.263
초록보기
초록

대학도서관은 구성원이 교육과 연구를 수행하는 데 있어 필요수적인 자료를 선정하여 구입할 필요가 있다. 따라서 이용자의 정보 요구를 장서 개발에 반영하는 방법으로 희망도서 제도를 운영하고 있다. 본 연구는 10년간의 장기적 관점에서 희망도서 신청 과정과 결과를 분석하였다. 희망도서는 단행본에 대한 강력한 정보 요구이기 때문에 주제 분야별 이용자의 정보 요구 패턴을 파악할 수 있었다. 대학 구성원으로서 이용자는 전공하는 학문 분야에 대해서는 전공 도서를 선정하면서도 다른 주제 분야의 교양 도서를 적절히 선정하여 장서 구성에 기여하고 있었다. 결과적으로 희망도서는 소수의 이용자에 의해 선정이 이루어지지만 도서관 전체 이용자의 정보 요구를 충족시키고 있어 효율적인 장서 개발 정책으로 운용되고 있다고 볼 수 있다.

Abstract

Academic libraries need to select and purchase essential collections to support students and faculty in education and research. Therefore, libraries reflect patrons’ information needs on collection development through patron purchase requests. This study analyzed the pattern and efficiency of patron purchase requests in a longer-term perspective; for over a decade. Patron purchase requests show different tendencies depending on academic characteristics, which enabled libraries to identify the users’ information needs in various subjects. Typically users contributed to collection development by expressing information needs in their fields of study through purchase requests. In the meantime, users in certain fields showed interest in other subject areas besides their own to select general books on various topics. Through this study, it became evident that a major portion of library collections were affected by active purchase requests from a small number of users. However those books were proven to be in demand in terms of effectiveness. Patron-driven acquisition is being implemented as an effective collection development policy.

45
양명석(한국과학기술정보연구원) ; 강남규(한국과학기술정보연구원) ; 김윤정(한국과학기술정보연구원) ; 최광남(한국과학기술정보연구원) ; 김영국(충남대학교) 2012, Vol.29, No.4, pp.123-142 https://doi.org/10.3743/KOSIM.2012.29.4.123
초록보기
초록

최근 효과적인 정보검색을 제공하기 위해 시맨틱 웹을 비롯한 다양한 검색기법들을 사용하고 있다. 이중에서 효과적인 방법은 온톨로지를 이용한 검색기술을 적용하는 것이라 할 수 있다. 본 논문에서는 국가과학기술지식정보서비스(NTIS)에서 구축한 국가R&D정보를 분석하여 온톨로지를 구축하고, 이용자가 관심있어 하는 주제분야(과제, 인물, 성과, 기관)를 중심으로 온톨로지의 객체관계를 표현하고 정보를 탐색하기 위한 국가R&D지식맵(knowledge map)을 구축하였다. 국가R&D지식맵은 사용자가 선택한 객체를 중심노드로 설정하여, 주제분야를 노드로 표현하고, 객체와 주제분야간의 관계를 분석하여 사용자가 관심 있어 하는 질의를 주제분야의 하위노드로 표현하였다. 사용자가 하위노드의 질의를 선택하면 시스템에서는 선택한 질의를 온톨로지로부터 추론할 수 있는 SPAQL 질의어를 생성하고 추론엔진으로부터 검색결과를 받아 사용자에게 제시하였다.

Abstract

To develop an intelligent search engine to help users retrieve information effectively, various methods, such as Semantic Web, have been used, An effective retrieval method of such methods uses ontology technology. In this paper, we built National R&D ontology after analyzing National R&D Information in NTIS and then implemented National R&D Knowledge Map to represent and retrieve information of the relationship between object and subject (project, human information, organization, research result) in R&D Ontology. In the National R&D Knowledge Map, center-node is the object selected by users, node is subject, subject's sub-node is user's favorite query in National R&D ontology after analyzing the relationship between object and subject. When a user selects sub-node, the system displays the results from inference engine after making query by SPARQL in National R&D ontology.

46
김은주(중앙대학교) ; 노성원(한양의대병원) ; 남태우(중앙대학교) 2016, Vol.33, No.1, pp.53-84 https://doi.org/10.3743/KOSIM.2016.33.1.053
초록보기
초록

이 연구는 한국의 정신의학 분야 국제공동연구 활성화를 위하여, 네트워크 분석에 중점을 두어 정신의학 분야 국제공동연구의 핵심 연구동향을 반영하는 지적구조를 규명하였다. 이를 위해 데이터는 Web of Science를 기반으로 수집하였으며, 검색 대상 기간은 2009년에서 2013년까지로 하였다. 고급검색 기능을 통해 정신의학 연구 분야를 의미하는 SU=“psychiatry”의 검색 식을 사용하였으며, 국제공동연구만을 선택해 총 18,590건의 논문을 수집하였다. 총 18,590건 논문의 저자 키워드와 WoS에서 부여한 키워드를 합쳐 최종 선정된 85개 키워드를 대상으로 분석한 결과는 다음과 같다. 첫째, 질환을 중심으로 총 8개의 세부 주제 영역을 확인하였다. 둘째, 높은 영향력을 가지며 다른 키워드들 간의 매개를 도모하여 주제영역을 확장시키는 총 6개의 핵심 키워드를 확인하였다. 셋째, 커뮤니티 분석을 통해 한국연구재단의 학문분류표를 이용하여 세부 주제영역으로 규명한 결과 총 15군집, 총 12세부 주제영역을 확인하였다.

Abstract

This study clarified the intellectual structure of international collaboration in psychiatry based on analyzing networks in order to vitalize for international collaboration in psychiatry in South Korea. The data set was collected from Web of Science citation database during the period from 2009 to 2013. SU=“psychiatry” search formulary (means field of psychiatric medical research) was used through advanced retrieval function and a total of 18,590 articles were selected among international collaborations. A total of 85 different keywords were selected from the 18,590 articles, and the results of analysis were as follows. First, this study examined 8 sub-subject areas focusing on disorders, and found that major subject areas could be divided into a total of 8 sub-subject areas. Second, this study examined 6 keywords that have a strong impact, and extend subject areas by promoting intermediation between other keywords Third, this study examined sub-subject areas by using the Knowledge Classification Scheme of the National Research Foundation of Korea through community analysis, and found a total of 15 clusters and a total of 12 sub-subject areas.

초록보기
초록

본 연구의 목적은 국내 학술논문 데이터베이스에서 검색한 언어 네트워크 분석 관련 53편의 국내 학술논문들을 대상으로 하는 내용분석을 통해, 언어 네트워크 분석 방법의 기초적인 체계를 파악하기 위한 것이다. 내용분석의 범주는 분석대상의 언어 텍스트 유형, 키워드 선정 방법, 동시출현관계의 파악 방법, 네트워크의 구성 방법, 네트워크 분석도구와 분석지표의 유형이다. 분석결과로 나타난 주요 특성은 다음과 같다. 첫째, 학술논문과 인터뷰 자료를 분석대상의 언어 텍스트로 많이 사용하고 있다. 둘째, 키워드는 주로 텍스트의 본문에서 추출한 단어의 출현빈도를 사용하여 선정하고 있다. 셋째, 키워드 간 관계의 파악은 거의 동시출현빈도를 사용하고 있다. 넷째, 언어 네트워크는 단수의 네트워크보다 복수의 네트워크를 구성하고 있다. 다섯째, 네트워크 분석을 위해 NetMiner, UCINET/NetDraw, NodeXL, Pajek 등을 사용하고 있다. 여섯째, 밀도, 중심성, 하위 네트워크 등 다양한 분석지표들을 사용하고 있다. 이러한 특성들은 언어 네트워크 분석 방법의 기초적인 체계를 구성하는 데 활용할 수 있을 것이다.

Abstract

The purpose of this study is to perform content analysis of research articles using the language network analysis method in Korea and catch the basic point of the language network analysis method. Six analytical categories are used for content analysis: types of language text, methods of keyword selection, methods of forming co-occurrence relation, methods of constructing network, network analytic tools and indexes. From the results of content analysis, this study found out various features as follows. The major types of language text are research articles and interview texts. The keywords were selected from words which are extracted from text content. To form co-occurrence relation between keywords, there use the co-occurrence count. The constructed networks are multiple-type networks rather than single-type ones. The network analytic tools such as NetMiner, UCINET/NetDraw, NodeXL, Pajek are used. The major analytic indexes are including density, centralities, sub-networks, etc. These features can be used to form the basis of the language network analysis method.

48
이재윤(경기대학교) ; 최상희(대구가톨릭대학교) 2011, Vol.28, No.2, pp.11-36 https://doi.org/10.3743/KOSIM.2011.28.2.011
초록보기
초록

Abstract

Since the 1990s, informetrics has grown in popularity among information scientists. Today it is a general discipline that comprises all kinds of metrics, including bibliometrics and scientometrics. To illustrate the dynamic progress of this field, this study aims to identify the structure and infrastructure of the informetrics literature using statistical and profiling methods. Informetrics literature was obtained from the Web of Knowledge for the years 2001-2010. The selected articles contain least one of these keywords: ‘informetrics’, ‘bibliometrics’, ‘scientometrics’, ‘webometrics’, and ‘citation analysis.’ Noteworthy publication patterns of major countries were identified by a statistical method. Intellectual structure analysis shows major research areas, authors, and journals.

49
김영범(전남대학교 대학원 기록관리학 석사) ; 장우권(전남대학교 문헌정보학과 교수) 2023, Vol.40, No.3, pp.99-118 https://doi.org/10.3743/KOSIM.2023.40.3.099
초록보기
초록

이 연구의 목적은 기록물의 맥락정보를 담고 있는 메타데이터를 활용하여 기록물 자동분류 과정에서의 성능요소를 파악하는데 있다. 연구를 위해 2022년 중앙행정기관 원문정보 약 97,064건을 수집하였다.수집한 데이터를 대상으로 다양한 분류 알고리즘과 데이터선정방법, 문헌표현기법을 적용하고 그 결과를 비교하여 기록물 자동 분류를 위한 최적의 성능요소를 파악하고자 하였다. 연구 결과 분류 알고리즘으로는 Random Forest가, 문헌표현기법으로는 TF 기법이 가장 높은 성능을 보였으며, 단위과제의 최소데이터 수량은 성능에 미치는 영향이 미미하였고 자질은 성능변화에 명확한 영향을 미친다는 것이 확인되었다.

Abstract

The objective of this study is to identify performance factors in the automatic classification of records by utilizing metadata that contains the contextual information of records. For this study, we collected 97,064 records of original textual information from Korean central administrative agencies in 2022. Various classification algorithms, data selection methods, and feature extraction techniques are applied and compared with the intent to discern the optimal performance-inducing technique. The study results demonstrated that among classification algorithms, Random Forest displayed higher performance, and among feature extraction techniques, the TF method proved to be the most effective. The minimum data quantity of unit tasks had a minimal influence on performance, and the addition of features positively affected performance, while their removal had a discernible negative impact.

50
김현희(명지대학교 문헌정보학과 명예 교수) ; 김용호(부경대학교 미디어커뮤니케이션학부 명예 교수) 2024, Vol.41, No.1, pp.261-282 https://doi.org/10.3743/KOSIM.2024.41.1.261
초록보기
초록

본 연구는 디지털 도서관의 콘텐츠를 탐색하는 동안 이용자의 암묵적 적합성 피드백을 활용하여 적합성을 판단하기 위해 뇌파 기반 및 시선추적 기반 방법들을 제안하고 평가해 보았다. 이를 위해서 32명을 대상으로 하여 동영상, 이미지, 텍스트 데이터를 활용하여 뇌파/시선추적 실험들을 수행하였다. 제안된 방법들의 유용성을 평가하기 위해서, 딥러닝 기반의 인공지능 방법들을 경쟁 기준으로 사용하였다. 평가 결과, 주제에 적합한 동영상과 이미지(얼굴/감정)를 선택하는 데에는 뇌파 컴포넌트 기반 방법들(av_P600, f_P3b)이 높은 분류 정확도를 나타냈고, 이미지(객체)와 텍스트(신문 기사)를 선택하는 데에는 인공지능 기반 방법 즉, 객체 인식 기반 방법과 자연언어 처리 방법이 각각 높은 분류 정확도를 나타냈다. 끝으로, 뇌파, 시선추적 및 인공지능 기술에 기반한 디지털 도서관 인터페이스를 구현하기 위한 지침 즉, 암묵적 적합성 피드백에 기반한 시스템 모형을 제안하고, 분류 정확도를 향상시키기 위해서 미디어별로 적합한 뇌파 기반, 시선추적 기반 및 인공지능 기반 방법들을 제시하였다.

Abstract

This study proposed and evaluated electroencephalography (EEG)-based and eye-tracking-based methods to determine relevance by utilizing users’ implicit relevance feedback while navigating content in a digital library. For this, EEG/eye-tracking experiments were conducted on 32 participants using video, image, and text data. To assess the usefulness of the proposed methods, deep learning-based artificial intelligence (AI) techniques were used as a competitive benchmark. The evaluation results showed that EEG component-based methods (av_P600 and f_P3b components) demonstrated high classification accuracy in selecting relevant videos and images (faces/emotions). In contrast, AI-based methods, specifically object recognition and natural language processing, showed high classification accuracy for selecting images (objects) and texts (newspaper articles). Finally, guidelines for implementing a digital library interface based on EEG, eye-tracking, and artificial intelligence technologies have been proposed. Specifically, a system model based on implicit relevance feedback has been presented. Moreover, to enhance classification accuracy, methods suitable for each media type have been suggested, including EEG-based, eye-tracking-based, and AI-based approaches.

정보관리학회지