Неопределенный символ: _ZN15TracebackLoggerC1EPKc, версия libcudnn_ops_infer.so.8

это информация о моей памяти, процессоре, графическом процессоре и факеле:

MemTotal:       30794980 kB
MemFree:        26650464 kB
MemAvailable:   28247716 kB
Buffers:           73680 kB
Cached:          1840696 kB
SwapCached:            0 kB
Active:           981320 kB
Inactive:        2659044 kB
Active(anon):       1356 kB
Inactive(anon):  1736720 kB
Active(file):     979964 kB
Inactive(file):   922324 kB
Unevictable:       18600 kB
Mlocked:           18600 kB
SwapTotal:             0 kB
SwapFree:              0 kB
Dirty:                40 kB
Writeback:             0 kB
AnonPages:       1744600 kB
Mapped:           640532 kB
Shmem:              3876 kB
KReclaimable:      92008 kB
Slab:             182620 kB
SReclaimable:      92008 kB
SUnreclaim:        90612 kB
KernelStack:        8256 kB
PageTables:        19732 kB
NFS_Unstable:          0 kB
Bounce:                0 kB
WritebackTmp:          0 kB
CommitLimit:    15397488 kB
Committed_AS:    9151572 kB
VmallocTotal:   34359738367 kB
VmallocUsed:       80276 kB
VmallocChunk:          0 kB
Percpu:             6496 kB
HardwareCorrupted:     0 kB
AnonHugePages:         0 kB
ShmemHugePages:        0 kB
ShmemPmdMapped:        0 kB
FileHugePages:         0 kB
FilePmdMapped:         0 kB
HugePages_Total:       0
HugePages_Free:        0
HugePages_Rsvd:        0
HugePages_Surp:        0
Hugepagesize:       2048 kB
Hugetlb:               0 kB
DirectMap4k:      406328 kB
DirectMap2M:     7979008 kB
DirectMap1G:    25165824 kB
Architecture:                       x86_64
CPU op-mode(s):                     32-bit, 64-bit
Byte Order:                         Little Endian
Address sizes:                      46 bits physical, 48 bits virtual
CPU(s):                             8
On-line CPU(s) list:                0-7
Thread(s) per core:                 2
Core(s) per socket:                 4
Socket(s):                          1
NUMA node(s):                       1
Vendor ID:                          GenuineIntel
CPU family:                         6
Model:                              63
Model name:                         Intel(R) Xeon(R) CPU @ 2.30GHz
Stepping:                           0
CPU MHz:                            2299.998
BogoMIPS:                           4599.99
Hypervisor vendor:                  KVM
Virtualization type:                full
L1d cache:                          128 KiB
L1i cache:                          128 KiB
L2 cache:                           1 MiB
L3 cache:                           45 MiB
NUMA node0 CPU(s):                  0-7
Vulnerability Gather data sampling: Not affected
Vulnerability Itlb multihit:        Not affected
Vulnerability L1tf:                 Mitigation; PTE Inversion
Vulnerability Mds:                  Mitigation; Clear CPU buffers; SMT Host state unknown
Vulnerability Meltdown:             Mitigation; PTI
Vulnerability Mmio stale data:      Vulnerable: Clear CPU buffers attempted, no microcode; SMT Host state unknown
Vulnerability Retbleed:             Mitigation; IBRS
Vulnerability Spec rstack overflow: Not affected
Vulnerability Spec store bypass:    Mitigation; Speculative Store Bypass disabled via prctl and seccomp
Vulnerability Spectre v1:           Mitigation; usercopy/swapgs barriers and __user pointer sanitization
Vulnerability Spectre v2:           Mitigation; IBRS; IBPB conditional; STIBP conditional; RSB filling; PBRSB-eIBRS Not affected; BHI
                                     Syscall hardening, KVM SW loop
Vulnerability Srbds:                Not affected
Vulnerability Tsx async abort:      Not affected
Flags:                              fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2
                                     ss ht syscall nx pdpe1gb rdtscp lm constant_tsc rep_good nopl xtopology nonstop_tsc cpuid tsc_kn
                                    own_freq pni pclmulqdq ssse3 fma cx16 pcid sse4_1 sse4_2 x2apic movbe popcnt aes xsave avx f16c r
                                    drand hypervisor lahf_lm abm invpcid_single pti ssbd ibrs ibpb stibp fsgsbase tsc_adjust bmi1 avx
                                    2 smep bmi2 erms invpcid xsaveopt arat md_clear arch_capabilities
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.171.04             Driver Version: 535.171.04   CUDA Version: 12.2     |
|-----------------------------------------+----------------------+----------------------+
| GPU  Name                 Persistence-M | Bus-Id        Disp.A | Volatile Uncorr. ECC |
| Fan  Temp   Perf          Pwr:Usage/Cap |         Memory-Usage | GPU-Util  Compute M. |
|                                         |                      |               MIG M. |
|=========================================+======================+======================|
|   0  Tesla T4                       Off | 00000000:00:04.0 Off |                    0 |
| N/A   38C    P8               9W /  70W |    105MiB / 15360MiB |      0%      Default |
|                                         |                      |                  N/A |
+-----------------------------------------+----------------------+----------------------+

+---------------------------------------------------------------------------------------+
| Processes:                                                                            |
|  GPU   GI   CI        PID   Type   Process name                            GPU Memory |
|        ID   ID                                                             Usage      |
|=======================================================================================|
+---------------------------------------------------------------------------------------+
Name: torch
Version: 2.2.1
Summary: Tensors and Dynamic neural networks in Python with strong GPU acceleration
Home-page: https://pytorch.org/
Author: PyTorch Team
Author-email: [email protected]
License: BSD-3
Location: /usr/local/lib/python3.8/dist-packages
Requires: nvidia-cufft-cu12, nvidia-cusparse-cu12, nvidia-cuda-cupti-cu12, nvidia-nccl-cu12, nvidia-nvtx-cu12, triton, filelock, fsspec, nvidia-cusolver-cu12, nvidia-cuda-nvrtc-cu12, nvidia-curand-cu12, nvidia-cublas-cu12, sympy, nvidia-cudnn-cu12, jinja2, typing-extensions, nvidia-cuda-runtime-cu12, networkx
Required-by: torchvision

раньше он ломался

try:  # FLOPS
        from thop import profile
        connect.loginfo("imported thop profile")
        stride = max(int(model.stride.max()), 32) if hasattr(model, 'stride') else 32
        connect.loginfo(f"stride: {stride}")
        img = torch.zeros((1, model.yaml.get('ch', 3), stride, stride), device=next(model.parameters()).device)  # input
        connect.loginfo(f"zero torch tensor: {img}")
        flops = profile(deepcopy(model), inputs=(img,), verbose=False)[0] / 1E9 * 2  # stride GFLOPS
        connect.loginfo(f"stride_flops: {flops}")
        img_size = img_size if isinstance(img_size, list) else [img_size, img_size]  # expand if int/float
        connect.loginfo(f"img_size: {img_size}")
        fs = ', %.1f GFLOPS' % (flops * img_size[0] / stride * img_size[1] / stride)  # 640x640 GFLOPS
        connect.loginfo(f"640_flops: {fs}")

профиль, я удалил модуль top. Раньше тот же скрипт нормально работал на другом сервере. Теперь я сменил сервер, и на старом сервере установлена ​​версия 2.2.0 с той же версией cuda.

Загвоздка в том, что я запускаю сценарий с помощью RabbitMQ. Только тогда он ломается, но если я вызываю его нормально с теми же аргументами, он работает нормально. Может кто-нибудь сказать, что здесь не так. Модель _model, которую я использую, возвращается функцией yolov7 try_load(models.experimental.py).

Что такое «сломается»? Что вы наблюдаете?

Ulrich Eckhardt 12.05.2024 21:51

при передаче тензора в модель работающий процесс Python завершается (например, из-за нехватки памяти или ошибки времени выполнения -> [нет исключения или сообщения трассировки]).

Malla Raraju 13.05.2024 14:34

Это все же не наблюдение, а ваша (возможно, ошибочная!) интерпретация. Что именно вы видите? Пожалуйста, включите эту информацию в свой вопрос.

Ulrich Eckhardt 13.05.2024 15:15

Я заметил, что процесс Python неожиданно завершается при передаче изображения или тензора в «_model». Я заметил, что это происходит именно при использовании RabbitMQ для обработки процесса. Вот соответствующая часть кода: _model(torch.zeros(1, 3, self.image_size, self.image_size).to(_selected_device).type_as(next(_model.pa‌​ramets()))) _model экземпляр nn.Module и включает в себя несколько сверточных и активационных слоев. Что может быть причиной этого прекращения работы и как я могу диагностировать или устранить проблему?"

Malla Raraju 15.05.2024 11:04

У меня нет ошибки отслеживания

Malla Raraju 16.05.2024 08:55

@UlrichEckhardt У меня 4 процессора и графический процессор, и я запускаю процесс Python обнаружения объектов на графическом процессоре, внутри докера я наблюдаю среди всех процессов, которые ожидают использования графического процессора (если они потребляют сообщение от RabbitMQ), есть 4 процессы, которые будут делать выводы, и 1, который будет проводить обучение. Я из четырех процессов прерываюсь без каких-либо следов и завершаю процесс в момент, когда я передаю нулевой тензор для проверки модели, при прерывании я вижу всплеск двух процессоров, один почти черно-белый 90 и 100%, а другой ч/б 25 и 50 и потребление графического процессора около 10% макс.

Malla Raraju 24.05.2024 08:54

Я проверил, что тензор изображения находится на графическом процессоре, и модель также находится на графическом процессоре (cuda:0). Я проверил, что модель загружена и путь к весам правильный. Что может быть причиной

Malla Raraju 24.05.2024 08:54
Почему в Python есть оператор "pass"?
Почему в Python есть оператор "pass"?
Оператор pass в Python - это простая концепция, которую могут быстро освоить даже новички без опыта программирования.
Некоторые методы, о которых вы не знали, что они существуют в Python
Некоторые методы, о которых вы не знали, что они существуют в Python
Python - самый известный и самый простой в изучении язык в наши дни. Имея широкий спектр применения в области машинного обучения, Data Science,...
Основы Python Часть I
Основы Python Часть I
Вы когда-нибудь задумывались, почему в программах на Python вы видите приведенный ниже код?
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
Алиса и Боб имеют неориентированный граф из n узлов и трех типов ребер:
Оптимизация кода с помощью тернарного оператора Python
Оптимизация кода с помощью тернарного оператора Python
И последнее, что мы хотели бы показать вам, прежде чем двигаться дальше, это
Советы по эффективной веб-разработке с помощью Python
Советы по эффективной веб-разработке с помощью Python
Как веб-разработчик, Python может стать мощным инструментом для создания эффективных и масштабируемых веб-приложений.
0
7
239
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

На самом деле я не наблюдал должным образом результат, я получал

/usr/bin/python3: symbol lookup error: /usr/local/lib/python3.8/dist-packages/torch/lib/../../nvidia/cudnn/lib/libcudnn_cnn_infer.so.8: undefined symbol: _ZN15TracebackLoggerC1EPKc, version libcudnn_ops_infer.so.8

Кажется, ошибка возникает, когда существует несоответствие между версией cuDNN, используемой во время компиляции, и версией, доступной во время выполнения (я получил этот ответ из чата GPT).

Понижение версии torch и torchvision до torch==2.0.1 torchvision==0.15.2 помогло мне. Если кто-то найдет эту дополнительную информацию, я хотел бы знать, правильный ли этот ответ от gpt, если нет, почему возникла эта ошибка.

Другие вопросы по теме

Похожие вопросы

Токенизаторы && Docker: не удалось создать колеса для токенизаторов, которые необходимы для установки проектов на основе pyproject.toml
Продукты Django не добавляются в корзину сразу
Мои потери при тестировании увеличиваются, но потери поездов для нейронной сети уменьшаются. Что я должен делать?
Установлен модуль Python `owiener`, но во время импорта продолжает появляться сообщение «Нет модуля с именем «owiener»»
Comfyui: python torch/изменение размера изображения – высота регулирует ширину, а ширина регулирует цвет?
Какие части несбалансированного конвейера обучения применяются к набору тестов?
Панды применяют стиль к одной строке на основе сравнения двух строк
PermissionError: [Errno 13] Разрешение отклонено. Как я могу переписать код, чтобы поместить папку «a», которая находится в папке «b», в папку «c»
Функции подмодуля маршрутизации с использованием APIRouter FastAPI
Как вернуть несколько списков в операторе возврата Python