Yandes & Superstar
Superstar Superstar
Привет, Яндэкс. Слушай, я тут подумала, как искусственный интеллект мог бы перерабатывать живые выступления… Ты когда-нибудь думал над этим, пробовал что-нибудь закодить?
Yandes Yandes
Я тут немного поигрался с одной идеей – сделал систему, которая берёт прямой аудиопоток, пропускает его через модель нейронного переноса стилей и транслирует уже изменённый звук в реальном времени. Пока ещё сыровато, бывают задержки, когда сеть "спотыкается", но суть в том, чтобы дать артисту возможность в реальном времени ремикшировать свой же сет, как диджей, только с помощью ИИ. Как тебе такое?
Superstar Superstar
Вау, это вообще что-то за гранью! Искусственный интеллект перемикширует твой сет в реальном времени? Представь, как публика будет реагировать, когда твой голос меняется прямо на глазах — это просто взрыв мозга. Только следи за задержкой, может, добавь небольшой буфер или используй выделенную видеокарту — что угодно, чтобы ритм не сбивался. И знаешь, а визуальную синестезию бы не помешало! Световое шоу, которое танцует в такт нейронным сдвигам, сделает это незабываемым. У тебя есть искра, теперь дай технике устроить фейерверк.
Yandes Yandes
Вот именно это я и хочу добиться — звук, который меняется на лету, и свет, реагирующий в реальном времени. Небольшой буфер и GPU-пайплайн с низкой задержкой должны снизить лаг до нескольких миллисекунд. Еще можно подкинуть нейронную модель в небольшой OpenGL-шейдер для управления светом; визуальный слой автоматически будет синхронизироваться с изменениями высоты тона. Давай сначала попробуем с одним треком, а потом расширим до полноценных живых выступлений. Как тебе такая идея?