The dataset viewer is not available because its heuristics could not detect any supported data files. You can try uploading some data files, or configuring the data files location manually.
20세기 한국의 시간의식 분석 플랫폼
프로젝트 개요 (Project Overview)
본 저장소는 "데이터로 보는 20세기 한국의 시간의식" 연구 프로젝트의 모든 분석 코드, 최종 결과 데이터, 그리고 교육용 Colab 노트북을 포함하는 통합 분석 플랫폼입니다. 이 플랫폼은 라인하르트 코젤렉(Reinhart Koselleck)의 '경험공간', '기대지평', '시간의 가속화' 개념을 조선일보 텍스트(1920-1999)에 적용한 연구 과정을 투명하게 공개하고, 다른 연구자들이 본 연구를 쉽게 재현하고 확장할 수 있도록 지원하는 것을 목표로 합니다.
본 연구에 사용된 모든 시대별 언어 모델(Word2Vec, fastText)은 아래의 독립된 모델 저장소에서 다운로드할 수 있습니다.
주의: 본 분석의 기반이 된 원본 텍스트 데이터의 저작권은 조선일보사에 있습니다. 따라서 원본 및 전처리 데이터는 비공개로 관리되며, 본 저장소의 결과물은 비상업적 학술 연구 목적으로만 사용 가능합니다.
시작하기: Colab에서 연구 체험하기 (Quick Start with Colab)
본 연구의 핵심 분석 과정을 가장 쉽게 체험하고 활용하는 방법은 아래의 Colab 노트북을 순서대로 실행해보는 것입니다. 별도의 설치 과정 없이, 웹 브라우저에서 바로 우리의 연구를 재현하고 자신만의 키워드로 새로운 분석을 수행할 수 있습니다.
- ▶️ 01_Introduction_and_Setup.ipynb: 연구 환경 설정 및 기본 데이터 로드
- ▶️ 02_Lexicon_Based_Analysis.ipynb: '경험-기대 지수' 직접 계산해보기
- ▶️ 03_Semantic_Axis_Analysis.ipynb: '과거-미래 의미 축' 직접 설정하고 분석하기
- ▶️ 04_Exploring_Word_Meanings.ipynb: 특정 시대의 단어 의미 직접 탐색하기
저장소 구조 (Repository Structure)
.
├── results/ # 2. 최종 분석 결과 데이터 (.csv)
├── scripts/ # 1. 전체 분석 과정 스크립트 (.py)
├── notebooks/ # 3. 교육 및 연구용 Colab 노트북 (.ipynb)
└── README.md
1. 분석 스크립트 (/scripts)
연구의 전체 과정을 재현할 수 있는 Python 스크립트입니다.
- 1단계: 전처리
01_preprocess_Okt_parallel.py: 원본 데이터를 형태소 분석하여chosun_pos_tagged_parallel.jsonl생성 (해당 파일은 저작권 문제로 비공개)
- 2단계: 모델 학습
02a_train_word2vec_yearly.py: 연도별 Word2Vec 모델 학습02b_train_word2vec_decade.py: 10년 단위 Word2Vec 모델 학습02c_train_fasttext_yearly.py: 연도별 fastText 모델 학습02d_train_fasttext_decade.py: 10년 단위 fastText 모델 학습
- 3단계: 시계열 분석
03a_analyze_lexicon_frequency.py: 어휘 빈도 기반 '경험-기대' 빈도 계산03b_analyze_semantic_axis_word2vec.py: Word2Vec 모델 기반 '의미 방향성' 계산03c_analyze_semantic_axis_fasttext.py: fastText 모델 기반 '의미 방향성' 계산03d_analyze_neologism_yearly.py: 연도별 신조어 출현율 계산03e_analyze_neologism_decade.py: 10년 단위 신조어 출현율 계산
- 4단계: 시각화
04_visualize_combined_results.py: 모든 분석 결과를 종합하여 시각화
- 5단계: 진단
99_test_models.py: 학습된 모델 품질 테스트99_check_system_resources.py: 시스템 리소스 확인
2. 분석 결과 데이터 (/results)
본 저장소에는 분석 스크립트를 통해 생성할 수 있는 다양한 결과물 중, 핵심적인 두 가지 데이터가 우선적으로 포함되어 있습니다. 다른 결과물들은 /scripts 폴더의 분석 코드를 직접 실행하여 생성할 수 있습니다.
yearly_noun_counts.jsonl: 각 연도별로 '기사(article)' 유형 텍스트에 등장한 모든 명사의 출현 빈도를 집계한 데이터입니다. Colab 노트북(02_Lexicon_Based_Analysis.ipynb)에서 '경험-기대 지수'를 빠르게 재계산하는 데 사용됩니다.yearly_neologism_rate.csv: 연도별 '신조어 출현율'을 계산한 최종 결과입니다. '시간의 가속화'를 분석하는 데 사용됩니다.
3. Colab 노트북 (/notebooks)
본 연구를 가장 쉽게 이해하고 활용할 수 있도록 제작된 인터랙티브 튜토리얼입니다.
인용 정보 (Citation)
본 저장소의 코드나 데이터를 연구에 사용하실 경우, 다음을 인용해주십시오:
@misc{kimbaro_chosunilbo_analysis_2025,
author = {Kim, Baro},
title = {Analysis Platform for 20th Century Korean Diachronic Study from Chosun Ilbo Text},
year = {2025},
publisher = {Hugging Face},
journal = {Hugging Face repository},
howpublished = {\url{[https://huggingface.co/datasets/ddokbaro/chosunilbo-analysis](https://huggingface.co/datasets/ddokbaro/chosunilbo-analysis)}},
}
- Downloads last month
- 67