У меня вопрос о том, можно ли получить доступ (чтение и запись) к файлам в общей рабочей области в Databricks с помощью Python? Я знаю, что согласно документам «В Databricks Runtime 11.3 LTS и выше вы можете напрямую манипулировать файлами рабочей области в Databricks».
В данный момент я использую среду выполнения 14.3, но ничего похожего на описанное в документация работает для меня, когда я пытаюсь читать/записывать файлы в общей рабочей области. Моя цель — создать файл в записной книжке в определенной папке в общей рабочей области (не в моей личной рабочей области) и сохранить его в той же папке.
Я знаю, что к нему можно получить доступ. небольшие таблицы каталога без искры, например, с использованием модуля «deltalake» и пути, который является модификацией пути, предоставляемого каталогом (например, в «Каталог»> «Сведения о таблице», есть место хранения, например s3://xxx-dev/yyy/ccc/zzzzz/tables/6abs-def654-ger654, и я могу использовать его для доступа к таблице вместо того, что предоставляется, когда я нажимаю ссылку «Копировать полное имя таблицы в буфер обмена» рядом Название таблицы в Каталоге). Так что может быть аналогичный путь (к s3 или другому месту), но для ноутбуков.
Есть предложения?
Подробнее здесь: https://stackoverflow.com/questions/792 ... ith-python
Доступ к файлам в рабочей области Databricks в версии среды выполнения > 11.3 с помощью Python ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение