Contrastive Learning 기반 주행패턴 분석
🧠 프로젝트 개요
이 프로젝트는 대조학습(Contrastive Learning) 기반의 방법론을 활용하여, 스마트폰 센서 데이터로부터 운전자의 주행 패턴을 분석하고, 운전 중 발생하는 이상 행동이나 변화점을 자동으로 탐지하는 시스템을 개발한 연구입니다.
레이블링이 어려운 운전 데이터를 효율적으로 처리하기 위해 자기지도학습(Self-supervised Learning)을 기반으로 하였고, 이후 적은 양의 레이블만으로 분류까지 수행할 수 있는 하이브리드 학습 방식을 채택했습니다.
🔍 문제 정의
- 기존 운전자 행동 인식 시스템은 대량의 레이블링 데이터를 요구하거나 정해진 규칙 기반으로 동작하여 일반화에 한계가 존재함
- 스마트폰 센서 (가속도, 자이로 등)는 운전 중 변화 감지에 유용하지만 이를 효과적으로 활용한 연구는 부족
- 특히 운전 이벤트의 변화점 탐지(change point detection) 와 패턴 분류를 동시에 고려한 시스템은 드뭄
🛠️ 사용 기술 및 접근법
- 센서 데이터 처리: STFT(Short-Time Fourier Transform)를 이용한 시간-주파수 변환
- 1단계 - 변화점 탐지:
Time-Consistency 기반 대조학습 학습 구조
- InfoNCE Loss + Cosine Similarity 사용
- 2단계 - 분류기 학습:
- 사전학습된 딥러닝 모델의 feature를 기반으로 SVC 분류기 학습
- 소량의 레이블로도 높은 성능 확보
📱 경량 모델 적용 및 비교
| Model |
Params |
GFLOPs |
| SqueezeNet |
1.2M |
0.35 |
| ShuffleNet |
1.4M |
0.04 |
| RegNet |
2.5M |
0.06 |
| MobileNet |
3.5M |
0.3 |
| EfficientNet |
5.3M |
0.39 |
| MnasNet |
2.2M |
0.10 |
→ SqueezeNet, RegNet 모델은 변화점 탐지 및 분류 모두에서 매우 우수한 성능
🧪 실험 결과 요약
- 변화점 탐지 정확도 (Precision 기준):
- RegNet: 0.92
- SqueezeNet: 0.75
- ShuffleNet: 0.73
- EfficientNet: 0.67
- 운전 패턴 분류 정확도:
- SqueezeNet: Precision = 1.00, Recall = 1.00
- ShuffleNet, RegNet: Precision/Recall > 0.85
→ 특히 클래스당 30개 미만의 매우 소량 레이블 데이터만으로도 뛰어난 성능을 달성함
📌 기여 및 역할
프로젝트의 핵심 연구자로서 데이터 전처리부터 모델 설계, 실험 및 결과 분석에 이르는 연구 전반을 주도했으며, 다음과 같은 기술적 기여를 했습니다.
🧩 핵심 모델 및 알고리즘 설계
대조학습 모델 설계: Time-Consistency 개념을 적용하여 시간적 연속성을 기반으로 Positive/Negative 페어를 구성하는 독창적인 샘플링 전략을 제안하고 구현했습니다.
변화점 탐지 알고리즘 개발: InfoNCE Loss와 Cosine Similarity를 결합하여, 시간적 유사도 변화를 기반으로 주행 이벤트의 변화점을 탐지하는 프레임워크를 개발했습니다.
⚙️ 데이터 처리 및 실험 환경 구축
데이터 전처리 파이프라인 구축: 스마트폰 센서의 비정규 시계열 데이터를 Spline 보간으로 정규화하고, STFT 변환을 통해 시간-주파수 특성을 추출하는 자동화된 파이프라인을 설계했습니다.
📊 성능 검증 및 결과 분석
연구 결과 분석 및 논문 기여: 모든 실험 결과를 정량적, 정성적으로 분석하고 시각화 자료를 제작했으며, 이를 바탕으로 논문의 핵심 내용을 작성하고 연구 성과를 정리했습니다.
📄 참고자료
2026
8 분 소요
이 포스팅은 Lai, Linero, Yao 의 2024년 arXiv 논문
“Predictive variational inference: Learn the predictively optimal posterior distribution”
를 읽고 정리한 글입니다. 이 글에서 참고...
4 분 소요
이 포스팅은 likelihood를 직접 계산하기 어려운 상황에서 사용되는 Approximate Bayesian Computation (ABC) 와, 그 결과 얻어지는 ABC posterior의 의미를 정리합니다.
2 분 소요
이 포스팅은 Ma, Chen, Jin, Flammarion, Jordan (2019) 의 논문
Sampling Can Be Faster Than Optimization 을 읽고 정리한 글입니다.
최대 1 분 소요
Sekai no Owari - 幻の命
맨 위로 이동 ↑
2025
2 분 소요
이 포스팅은 모델 Misspecification에 강건한 Gibbs Posteriors (or Generalized Posteriors)에 대해 정리합니다.
Introduction: Standard Bayes의 한계
이전 포스팅에서 다룬 Variational Infere...
9 분 소요
이 포스팅은 Knoblauch, Jewson, Damoulas (2019) 의
“Generalized Variational Inference: Three arguments for deriving new posteriors” 를 읽고 정리한 글입니다.
Introducti...
5 분 소요
이 포스팅은 Variational Inference(VI) 를 정리한 글입니다.
Introduction
베이지안 추론의 목표는 관측 데이터 $y$ 에 대해 사후분포(posterior)
[p(\theta \mid y)
\propto
p(\theta)\, p(y \mi...
4 분 소요
이 포스팅은 Sequential Monte Carlo(SMC) 방법의 대표 알고리즘인 Particle Filter 의 핵심 개념과 구조를 정리한 글입니다.
“Filtering & State Space Model” 에 이어지는 내용입니다.
Introduc...
3 분 소요
이 포스팅은 동적 시스템(Dynamic System)에서의 필터링(Filtering) 과 상태공간모형(State-Space Model) 에 대한 기본 개념을 정리한 글입니다.
Introduction
현실 세계의 많은 문제는 시간에 따라 변화하는 시스템을 다루고 있으며, ...
3 분 소요
회귀분석에 대한 기본적인 내용은 Linear Regression 포스팅을 참고해주세요
2 분 소요
개요
데이터의 저차원 표현을 학습하면서, 그래프 인접성(유사도)을 보존하도록 정규화 항을 추가한 PCA 변형입니다.
핵심은 그래프 라플라시안 $L$을 이용한 매끄러움(smoothness) 패널티 $λ tr(Z^T L Z)$ 입니다. 이 항은 그래프에서 이웃한 노드들의 임베...
2 분 소요
Introduction: The Last Frontier of Tabular Data
2 분 소요
Linear Regressio은 연속형 반응 변수와 설명 변수의 선형 관계를 모델링하는 가장 기본적인 통계 모델입니다. 이 글에서는 OLS(Ordinary Least Squares)의 수식적 구조, 가정, 해석을 중심으로 정리하고, 간단한 파이썬 실습을 해보려고 합니다.
3 분 소요
이 포스팅은 Linero (2023) 의 논문 Generalized Bayesian Additive Regression Trees Models: Beyond Conditional Conjugacy 을 읽고 정리한 글입니다.
4 분 소요
이 포스팅은 Bayesian Additive Regression Networks (BARN) Linero, 2024; arXiv:2404.04425v1 을 읽고 정리한 글입니다.
1 분 소요
이 포스팅은 Bayesian Independent Component Analysis (Bayesian ICA) 에 대해 공부하며 정리한 글입니다.
4 분 소요
이 포스팅은 Probabilistic Principal Component Analysis (PPCA)에 대해 공부하며 정리한 글입니다.
Tipping & Bishop (1999)의 고전 논문을 기반으로 수학적 정의, 추론 과정, 장단점을 설명하겠습니다.
2 분 소요
이 포스팅은 Bayesian Principal Component Analysis (BPCA)에 대해 공부하고 정리한 글입니다.
3 분 소요
이 포스팅은 지속학습(Continual Learning)에서의 K-prior 기반 Compact Memory 논문 “Compact Memory for K-prior Based Continual Learning”을 정리한 글입니다.
3 분 소요
이 포스팅은 Mixture of Experts(MoE)의 개념을 정리하고, 전통적인 Ensemble과 비교하여 차이를 설명합니다.
3 분 소요
이 포스팅은 여러가지 차원축소(Dimensionality Reduction)기법들에 대해 소개하고 간단한 시각화를 해보는 글입니다.
4 분 소요
이 포스팅은 Amari (1998)의 Natural Gradient 개념과
Variational Inference에서의 응용을 정리한 글입니다.
4 분 소요
이 포스팅은 A. Solin et al. (2014)의 논문 Hilbert Space Methods for Reduced-Rank Gaussian Process Regression을 읽고 정리한 글입니다.
4 분 소요
이 포스팅은 H.Chen et el. (2014)의 논문 Graph-Based Change-Point Detection을 읽고 정리한 글입니다.
4 분 소요
이 포스팅은 Bayesian Online Changepoint Detection에 대한 글입니다.
8 분 소요
이 포스팅은 “Bayesian Graph Convolutional Neural Networks for Semi-supervised Classification” 논문을 읽고 BGCNN에 대해 정리한 글입니다.
3 분 소요
이 포스팅은 공간통계에서 자주 사용하는 공간 자기상관에 대한 통계량 Moran’s I에 대해 설명하는 글입니다.
3 분 소요
이 포스팅은 “Make Me a BNN: A Simple, Scalable Strategy for Estimating Bayesian Uncertainty” 논문을 읽고 ABNN의 핵심 아이디어에 대해 정리한 글입니다.
8 분 소요
이 포스팅은 Papamakarios et al. (2021)의 “Normalizing Flows for Probabilistic Modeling and Inference”, Kobyzev et al. (2021)의 “Normalizing Flows: An Introductio...
5 분 소요
이 포스팅은 Khan 등 (2023)의 논문 “The Bayesian Learning Rule”를 읽고 정리한 글입니다.
2 분 소요
이 포스팅은 Velickovic et al. (2018) 의 논문 Graph Attention Networks를 읽고 정리한 글입니다.
3 분 소요
이 포스팅은 Venkitaraman et al. (2018) 의 논문 Gaussian Processes Over Graphs를 읽고 정리한 글입니다.
3 분 소요
이 포스팅은 그래프 이론의 기본 개념—노드, 엣지, 인접행렬, 차수행렬, 라플라시안, 그래프 신호—을 정리한 글입니다.
3 분 소요
이 포스팅은 SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS 논문을 읽고 정리한 글입니다.
2 분 소요
이 포스팅은 Bayesian Linear Regression에 대한 개념을 소개하는 글입니다.
4 분 소요
이 포스팅은 Gaussian Process에 대한 개념을 소개하는 글입니다.
2 분 소요
이 포스팅은 Dempster et al. (2020)의 논문 “ROCKET: Exceptionally Fast and Accurate Time Series Classification Using Random Convolutional Kernels” 을 바탕으로 내용을 정리한 글...
2 분 소요
이 포스팅은 Maia et al. (2022)의 논문 “GP-BART: a novel Bayesian additive regression trees approach using Gaussian processes”를 읽고 정리한 글입니다.
3 분 소요
본 포스팅에서는 Bayesian Kernel Machine Regression (BKMR)의 이론적 배경을 정리하고 간단한 실습을 진행합니다.
8 분 소요
이 포스팅은 Chipman et al. (2010)의 논문 “BART: Bayesian Additive Regression Trees”를 읽고 정리한 글입니다.
2 분 소요
본 포스팅에서는 베이지안 추론에서 핵심이 되는 MCMC(Markov Chain Monte Carlo) 알고리즘의 원리와 구현 방식을 살펴보겠습니다.
맨 위로 이동 ↑