Back to Projects
Python Deep Learning Computer Vision TimeSformer OpenCV

VALORANT Round Outcome Prediction

NAIST と連携し、minimap video analysis から VALORANT の round outcome を予測する transformer-based approach を構築しました。

Open External Link
80.55%
Prediction Accuracy
21,228
Round Videos
IEEE CoG
Published At

Overview

この project では、tactical shooter である VALORANT の round outcome を deep learning で予測しました。入力として使ったのは minimap の video data で、そこからどちらの team が round を取るかを推定しています。

minimap は player movement と team coordination の情報を高密度に含んでいるため、privileged な in-game telemetry がなくても、十分に強い computer-vision pipeline を組めると考えました。その結果、esports analytics に対する video-first な approach を実証できました。

Key Features

Transformer Architecture

TimeSformer を使い、minimap video sequence の temporal / spatial dependency を捉えました。

Large-Scale Dataset

1,376 本の tournament video から dataset を構築し、model の training と validation に使いました。

Reliable Predictions

live match state から round outcome を 80.55% の精度で予測しました。

Video-First Pipeline

minimap footage を処理し、player position と team momentum を real time に近い形で推定しました。

Technologies Used

Python PyTorch TimeSformer OpenCV NumPy CUDA

Outcomes & Impact

  • IEEE Conference on Games 2025 に採択されました。
  • video transformer を esports analytics に応用する実例を示しました。
  • 後続研究に使える dataset を整備しました。

Collaboration

奈良先端科学技術大学院大学(NAIST)との共同研究として進めました。