Я специально пытаюсь создать приложение, которое может запустить файл HTML-Javascript, который может распознавать речевой ввод из микрофона, транскрибировать его и назначать динамик, пока я не нажимаю на остановку. Спикер, хотя я также установил конфигурацию для дневника.
Speech Sample
Speech Recognition Speech SDK not found
(microsoft.cognitiveservices.speech.sdk.bundle.js missing).
Microsoft Cognitive Services Speech SDK
Javascript Browser Sample
Subscription:
Region:
West US
West US 2
East US
East US 2
East Asia
South East Asia
Central India
North Europe
West Europe
Recognition language:
English - US
Start
Stop
Results:
Events:
function Initialize(onComplete) {
if (!!window.SpeechSDK) {
document.getElementById('content').style.display = 'block';
document.getElementById('warning').style.display = 'none';
onComplete(window.SpeechSDK);
}
}
var SpeechSDK;
var phraseDiv, statusDiv;
var key, authorizationToken;
var regionOptions;
var recognizer;
document.addEventListener("DOMContentLoaded", function () {
scenarioStartButton = document.getElementById('scenarioStartButton');
scenarioStopButton = document.getElementById('scenarioStopButton');
phraseDiv = document.getElementById("phraseDiv");
statusDiv = document.getElementById("statusDiv");
key = document.getElementById("key");
regionOptions = document.getElementById("regionOptions");
scenarioStartButton.addEventListener("click", function () {
doContinuousRecognition();
});
scenarioStopButton.addEventListener("click", function() {
if (recognizer) {
recognizer.stopContinuousRecognitionAsync();
}
});
});
function getAudioConfig() {
return SpeechSDK.AudioConfig.fromDefaultMicrophoneInput();
}
function getSpeechConfig() {
var speechConfig = SpeechSDK.SpeechConfig.fromSubscription(key.value, regionOptions.value);
speechConfig.setProperty(SpeechSDK.PropertyId.SpeechServiceConnection_EnableSpeakerDiarization, "true"); // Enable speaker diarization
console.log("Speaker diarization enabled."); // Log confirmation
return speechConfig;
}
function onRecognized(sender, recognitionEventArgs) {
var result = recognitionEventArgs.result;
console.log(result); // Log the entire result for debugging
phraseDiv.scrollTop = phraseDiv.scrollHeight;
var speakerId = result.speakerId ? ` [Speaker ID: ${result.speakerId}]` : '';
statusDiv.innerHTML += `(recognized) Reason: ${SpeechSDK.ResultReason[result.reason]}`;
phraseDiv.innerHTML += `${result.text}${speakerId}\r\n`;
}
function doContinuousRecognition() {
var audioConfig = getAudioConfig();
var speechConfig = getSpeechConfig();
if (!audioConfig || !speechConfig) return;
recognizer = new SpeechSDK.SpeechRecognizer(speechConfig, audioConfig);
recognizer.recognized = onRecognized;
recognizer.startContinuousRecognitionAsync();
}
Initialize(async function (speechSdk) {
SpeechSDK = speechSdk;
});
Подробнее здесь: https://stackoverflow.com/questions/794 ... audio-real
Попытка создать программу речевой программы Azure, которая может транскрибировать и дневнизировать аудио в режиме реальн ⇐ Javascript
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Можно ли создать собственный речевой пузырь без использования clip-path? [закрыто]
Anonymous » » в форуме CSS - 0 Ответы
- 27 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Как сегментировать и транскрибировать звук из видео в сегменты временных метков?
Anonymous » » в форуме Python - 0 Ответы
- 12 Просмотры
-
Последнее сообщение Anonymous
-