Ошибка выполнения: библиотека cublas64_12.dll не найдена или не может быть загружена. При использовании диаризации WhisperX

Я пытался использовать шепот для ведения дневника говорящих. Я успешно сделал это в Google Colab, но столкнулся с этой ошибкой при попытке расшифровать аудиофайл.

Traceback (most recent call last): File "D:\Programming\Python\Projects\Conversation-Analyser\Conversation Analyser\Classes\diarization.py", line 42, in <module> diarize() File "D:\Programming\Python\Projects\Conversation-Analyser\Conversation Analyser\Classes\diarization.py", line 40, in diarize result = model.transcribe(audio, batch_size=batch_size) File "D:\Programming\Python\Projects\Conversation-Analyser\.venv\lib\site-packages\whisperx\asr.py", line 194, in transcribe language = language or self.detect_language(audio) File "D:\Programming\Python\Projects\Conversation-Analyser\.venv\lib\site-packages\whisperx\asr.py", line 252, in detect_language encoder_output = self.model.encode(segment) File "D:\Programming\Python\Projects\Conversation-Analyser\.venv\lib\site-packages\whisperx\asr.py", line 86, in encode return self.model.encode(features, to_cpu=to_cpu) RuntimeError: Library cublas64_12.dll is not found or cannot be loaded

Я закончил pip install torch==2.0.0 torchvision==0.15.1 torchaudio==2.0.1 --index-url https://download.pytorch.org/whl/cu118

Я пытаюсь вести дневник спикеров. На этапе транскрипции я сталкиваюсь с этой ошибкой. Это код: model = whisperx.load_model("large-v2", device, compute_type=compute_type, download_root=model_dir) result = model.transcribe(audio, batch_size=batch_size)

Стоит ли изучать PHP в 2023-2024 годах?
Стоит ли изучать PHP в 2023-2024 годах?
Привет всем, сегодня я хочу высказать свои соображения по поводу вопроса, который я уже много раз получал в своем сообществе: "Стоит ли изучать PHP в...
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
Поведение ключевого слова "this" в стрелочной функции в сравнении с нормальной функцией
В JavaScript одним из самых запутанных понятий является поведение ключевого слова "this" в стрелочной и обычной функциях.
Приемы CSS-макетирования - floats и Flexbox
Приемы CSS-макетирования - floats и Flexbox
Здравствуйте, друзья-студенты! Готовы совершенствовать свои навыки веб-дизайна? Сегодня в нашем путешествии мы рассмотрим приемы CSS-верстки - в...
Тестирование функциональных ngrx-эффектов в Angular 16 с помощью Jest
В системе управления состояниями ngrx, совместимой с Angular 16, появились функциональные эффекты. Это здорово и делает код определенно легче для...
Концепция локализации и ее применение в приложениях React ⚡️
Концепция локализации и ее применение в приложениях React ⚡️
Локализация - это процесс адаптации приложения к различным языкам и культурным требованиям. Это позволяет пользователям получить опыт, соответствующий...
Пользовательский скаляр GraphQL
Пользовательский скаляр GraphQL
Листовые узлы системы типов GraphQL называются скалярами. Достигнув скалярного типа, невозможно спуститься дальше по иерархии типов. Скалярный тип...
2
0
1 550
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

У меня была та же проблема с fast-whisper, и после огромного времени поиска в Интернете я понял, что это быстрая реализация модели OpenAI Whisper с использованием CTranslate2, и проблема в CTranslate2, которому в версии по умолчанию требуется CUDA 12, проверьте это здесь: ️ 🔁 https://github.com/SYSTRAN/faster-whisper

Причина, по которой Google Colab работает нормально, заключается в том, что версия CUDA 12.2 содержит «cublas64_12.dll», вы можете проверить это с помощью «!nvidia-smi», а я использую CUDA 11.8, и именно поэтому «cublas64_12.dll» отсутствует, В CUDA 11 есть «cublas64_11.dll».

Чтобы решить эту проблему, я понизил версию CTranslate2 до «3.24.0» с помощью этой команды:

pip install --upgrade --force-reinstall ctranslate2==3.24.0

Другие вопросы по теме