Back to Projects
Python LLM Speech-to-Speech AI Agent R&D

Speech-to-Speech LLM Agent

自然な speech-in / speech-out interaction を目指し、voice agent の proof of concept を設計から実装まで通して作りました。

Overview

この proof of concept では、speech recognition、large language model、speech synthesis をひとつの conversational loop として接続し、より自然な AI agent interface を試しました。voice input と voice output を途切れさせずに扱うため、latency と context maintenance の両方が重要でした。

project は独力でスコープ設計から実装まで進めたため、voice experience だけでなく architecture の明快さと iteration speed も同じくらい重視しています。

Key Features

Speech-to-Speech

text に戻らず、voice-first のまま対話できる interaction loop を構築しました。

End-to-End Ownership

初期設計から implementation までを一人で持ち、全体の意思決定も担当しました。

Proof of Concept

core interaction loop が成立する working prototype を短期間で仕上げました。

Demo Ready

release demo と internal evaluation にそのまま使える状態まで持っていきました。

Technologies Used

Python LLM Speech Recognition Text-to-Speech FastAPI WebSocket

Challenges Overcome

  • real-time voice loop の latency をどう抑えるか。
  • recognition error があっても dialogue context を崩しすぎないこと。
  • prototype speed と system robustness のバランスを取ること。

Outcomes & Impact

  • speech-to-speech agent の functional prototype を完成させました。
  • conversational voice interaction 向け architecture の妥当性を検証できました。
  • stakeholder demo に出せる状態まで仕上げました。