const createAudioSegment = async ([i, segment]) => {
const response = await openai.audio.speech.create({
model: "tts-1",
voice: "echo",
input: text,
});
return response;
};
const audio_texts = ["text 1", "text 2"] // list of text to turn into audio
// Process dialogue segments in parallel
const audioSegments = await Promise.all(
audio_texts.map((text) => createAudioSegment(text))
);
const audioBuffers = await Promise.all(
audioSegments.map(async (segment) => {
const arrayBuffer = await segment.arrayBuffer();
return Buffer.from(arrayBuffer);
})
);
const finalBuffer = Buffer.concat(audioBuffers);
< /code>
Проблемы с производительностью < /h3>
В целом, время, необходимое для этого, обычно составляет 40-60 секунд. Однако при регистрации отдельных операций я заметил, что это действительно чтение каждого сегмента аудио в его отдельный буфер, который занимает большую часть времени. В качестве примера, для сценария с 12 аудио сегментами, я ожидаю увидеть следующее время:
- Время общего аудио сегмента: 2333 MS
- Аудио -буферное время. (ms): [1035,3420,6497,96,150,360,70,88,20344,32,83,254]
- Buffer Concatenation Time: 2 ms
What could be Вызывая такое большое расхождение между индивидуальным временем чтения? Это то, чего можно избежать с более эффективным способом сделать это?
Подробнее здесь: https://stackoverflow.com/questions/795 ... in-node-js
Мобильная версия