Создание каталога "llava_shared.dir \ Release".
Структурированный выход включен. Форматирование диагностики компилятора будет отражать иерархию ошибки. См. Https://aka.ms/cpp/structured-Topput Для получения более подробной информации.
Создание каталога "C: \ users \ Developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ vendor \ llama.cpp \ Примеры \ llava \ release ".
Создание каталога" llava_shared.dir \ release \ llava_shared.tlog ".
initiazebuildstatus:
Создание" llava_shared.dir \ release \ llava_shared.tlog \ unsucessfulbuild " "был указан.
touching" llava_shared.dir \ release \ llava_shared.tlog \ unsuccessfulbuild ".
Custombuild:
Создание пользовательского правила C:/users/developer/appdata/local/temp/pip -install-Zras17p_/llama-cpp-python_665b020e55e347eb88a6a31baa320e9f/vendor/llama.cpp/examples/llava/cmakelists.txt
link:
c: \ Program Files (x86) \ microsoft \ 2022. \ VC \ Tools \ MSVC \ 14.43.34808 \ bin \ hostx64 \ x64 \ link.exe /erronReport: queue /out:"c: \ Примеры \ llava \ release \ llava.dll " /incremental: no /nologo .... \ src \ release \ llama.lib ... SRC \ Release \ GGML-CPU.LIB "" .... \ ggml \ src \ release \ ggml-base.lib "kernel32.lib user32.lib gdi32.lib winspool.lib shell32.lib ole32.lib oleaut32.lib uuid.lib comdlg32.lib advapi32.lib/manifest/manifestuac: "level = 'asinvoker' uiaccess = 'false'"/manifest: embed/pdb: "c:/users/developer/appdata/local/temp/tmpac6hkx1w/build /vendor/llama.cpp/examples/llava/release/llava.pdb "/subsystem: console/tlbid: 1/dynamicbase/nxcompat/inty Поставщик/llama.cpp/Примеры/llava/release/llava.lib "/machine: x64/machine: x64/dll c: \ users \ developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ vendor \ llama.cpp \ temp \ tmpac6hkx1w \ build \ llama.cpp \ temp \ tmpac6hkx1w \ build \ llama.cpp \ temp \ tmpac6hkx1w \ \ llava \ llava.dir \ release \ llava.obj
c:\sumers\developer\ appdata\local\temp\tmpac6hkx1w\build\vendor\lmlama.cpp\ examples\lava\llava.dir\release\clip .obj
Создание библиотеки c:/users/developer/appdata/local/temp/tmpac6hkx1w/build/vendor/llama.cpp/examples/llava/release/llava.lib и объект C:/userser/appdata /Local/temp/tmpac6hkx1w/build/vendor/llama.cpp/examples/llava/release/llava.exp
llava_shared.vcxproj -> c: \ users \ developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ Продавец \ llama.cpp \ Примеры \ llava \ release \ llava.dll
infintizebuildstatus:
deleting file "llava_shared.dir \ release \ llava_shared.tlog \ unsuccessfulbuild". \ Release \ llava_shared.tlog \ llava_shared.lastbuildstate ".
Готовое строительство проекта" C: \ users \ developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ vendor \ llama.cpp \ Примеры \ llava \ llava_shared. "(Цели по умолчанию).
project" c: \ users \ developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ all_build.vcxproj "(1) - это строительство" c: \ users \ developer \ appdata \ local \ Temp \ tmpac6hkx1w \ build \ vendor \ llama.cpp \ Примеры \ llava \ llava_static.vcxproj "(14) на узеле 1 (цели по умолчанию).
Prepareforbuild:
Создание каталога" llava_static.dir \ Release " .
Структурированный выход включен. Форматирование диагностики компилятора будет отражать иерархию ошибки. См. Https://aka.ms/cpp/structured-toutput для получения более подробной информации.
Создание каталога "llava_static.dir \ Release \ llava_static.tlog".
initiazebuildstatus:
Создание "llava_static. Dir \ Release \ llava_static.tlog \ unsuccessfulbuild «потому что был указан« всегда Create ». : /Users/developer/appdata/local/temp/pip-install-zras17p_/llama-cpp-python_665b020e55e347eb88a6a31baa320e9f/vendor/llama.cpp/examples/llava/cmakelists.txt
libp. Файлы программы (x86) \ Microsoft Visual Studio \ 2022 \ BuildTools \ VC \ Tools \ MSVC \ 14.43.34808 \ bin \ hostx64 \ x64 \ lib.exe /out: "c: \ users \ developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ vendor \ llama.cpp \ Примеры \ llava \ release \ llava_static.lib " /nologo /machine: x64 /machine: x64 c: \ users \ developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ vendor \ llama \ .cpp \ Примеры \ llava \ llava.dir \ release \ llava.obj
c:\susers \ adeveloper\ appdata\local\temp\tmpac6hkx1w\build\vendor\lmalma.cpp\ examples\lava\llava.dir \ Release \ clip.obj
llava_static.vcxproj -> c: \ users \ developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ vendor \ llama.cpp \ Примеры \ llava \ release \ llava_static.lib
InfintizebuildStatus:
Deleting File "llava_static.dir \ Release \ llava_static.tlog \ Unsuccessfulbuild".
Touching "llava_static.dir \ release \ llava_static.tlog \ llava_static.lastbuildstate". Проект "C: \ users \ Developer \ AppData \ Local \ Temp \ tmpac6hkx1w \ build \ vendor \ llama.cpp \ Примеры \ llava \ llava_static.vcxproj" (цели по умолчанию). \ Developer \ appdata \ local \ temp \ tmpac6hkx1w \ build \ all_build.vcxproj "(цели по умолчанию) - не удалось. < /P>
Build FAILED.
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\ALL_BUILD.vcxproj" (default target) (1) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\examples\llava\llava.vcxproj" (default target) (4) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\ggml\src\ggml.vcxproj" (default target) (5) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\ggml\src\ggml-base.vcxproj" (default target) (6) ->
(ClCompile target) ->
C:\Program Files (x86)\Windows Kits\10\Include\10.0.22621.0\ucrt\assert.h(21,9): warning C4005: 'static_assert': macro redefinition [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\ggml\src\ggml-base.vcxproj]
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\ALL_BUILD.vcxproj" (default target) (1) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\examples\llava\llava.vcxproj" (default target) (4) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\ggml\src\ggml.vcxproj" (default target) (5) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\ggml\src\ggml-cpu.vcxproj" (default target) (7) ->
C:\Program Files (x86)\Windows Kits\10\Include\10.0.22621.0\ucrt\assert.h(21,9): warning C4005: 'static_assert': macro redefinition [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\ggml\src\ggml-cpu.vcxproj]
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\ALL_BUILD.vcxproj" (default target) (1) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\examples\llava\llava.vcxproj" (default target) (4) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\src\llama.vcxproj" (default target) (8) ->
C:\Program Files (x86)\Microsoft Visual Studio\2022\BuildTools\VC\Tools\MSVC\14.43.34808\include\type_traits(1706,98): warning C4244: 'argument': conversion from 'unsigned __int64' to 'int', possible loss of data [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\src\llama.vcxproj]
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\ALL_BUILD.vcxproj" (default target) (1) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\examples\llava\llava.vcxproj" (default target) (4) ->
C:\Users\Developer\AppData\Local\Temp\pip-install-zras17p_\llama-cpp-python_665b020e55e347eb88a6a31baa320e9f\vendor\llama.cpp\examples\llava\clip.cpp(1131,9): warning C4297: 'clip_model_load': function assumed not to throw an exception but does [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\examples\llava\llava.vcxproj]
C:\Users\Developer\AppData\Local\Temp\pip-install-zras17p_\llama-cpp-python_665b020e55e347eb88a6a31baa320e9f\vendor\llama.cpp\examples\llava\clip.cpp(1586,13): warning C4297: 'clip_model_load': function assumed not to throw an exception but does [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\examples\llava\llava.vcxproj]
C:\Users\Developer\AppData\Local\Temp\pip-install-zras17p_\llama-cpp-python_665b020e55e347eb88a6a31baa320e9f\vendor\llama.cpp\examples\llava\clip.cpp(2820,5): warning C4297: 'clip_n_mmproj_embd': function assumed not to throw an exception but does [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\examples\llava\llava.vcxproj]
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\ALL_BUILD.vcxproj" (default target) (1) ->
"C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\common\common.vcxproj" (default target) (9) ->
(ClCompile target) ->
C:\Users\Developer\AppData\Local\Temp\pip-install-zras17p_\llama-cpp-python_665b020e55e347eb88a6a31baa320e9f\vendor\llama.cpp\common\log.cpp(28,79): error C2039: 'system_clock': is not a member of 'std::chrono' [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\common\common.vcxproj]
C:\Users\Developer\AppData\Local\Temp\pip-install-zras17p_\llama-cpp-python_665b020e55e347eb88a6a31baa320e9f\vendor\llama.cpp\common\log.cpp(28,79): error C3083: 'system_clock': the symbol to the left of a '::' must be a type [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\common\common.vcxproj]
C:\Users\Developer\AppData\Local\Temp\pip-install-zras17p_\llama-cpp-python_665b020e55e347eb88a6a31baa320e9f\vendor\llama.cpp\common\log.cpp(28,93): error C2039: 'now': is not a member of 'std::chrono' [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\common\common.vcxproj]
C:\Users\Developer\AppData\Local\Temp\pip-install-zras17p_\llama-cpp-python_665b020e55e347eb88a6a31baa320e9f\vendor\llama.cpp\common\log.cpp(28,93): error C3861: 'now': identifier not found [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\common\common.vcxproj]
C:\Users\Developer\AppData\Local\Temp\pip-install-zras17p_\llama-cpp-python_665b020e55e347eb88a6a31baa320e9f\vendor\llama.cpp\common\log.cpp(28,25): error C2672: 'std::chrono::duration_cast': no matching overloaded function found [C:\Users\Developer\AppData\Local\Temp\tmpac6hkx1w\build\vendor\llama.cpp\common\common.vcxproj]
6 Warning(s)
5 Error(s)
Time Elapsed 00:01:22.47
*** CMake build failed
[end of output]
< /code>
Примечание: эта ошибка происходит из подпроцесса и, вероятно, не является проблемой с PIP.
Ошибка: Неудачное строительное колесо для Llama-cpp-python
не удалось Построить Llama-cpp-python
ошибка: не удалось создать установленные колеса для некоторых проектов на основе pyproject.toml (Llama-cpp-python) < /p>
Подробнее здесь: https://stackoverflow.com/questions/794 ... windows-pc
Пока PIP устанавливает Llama-Cpp-Python, получая ошибку на ПК с Windows ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Пока PIP устанавливает Llama-Cpp-Python, получая ошибку на ПК с Windows
Anonymous » » в форуме Python - 0 Ответы
- 10 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Пока PIP устанавливает Llama-Cpp-Python, получая ошибку на ПК с Windows
Anonymous » » в форуме Python - 0 Ответы
- 6 Просмотры
-
Последнее сообщение Anonymous
-