Я бухгалтер, работаю в отделе финансового контроля. В настоящее время все наши данные по закрытию месяца и финансовой отчетности хранятся в электронных таблицах Excel, многие из которых содержат сотни тысяч строк. Проблема: Этот сценарий вызывает две основные проблемы:
Процесс консолидации вручную в Excel медленный и подвержен ошибкам.
При подключении Power BI напрямую к этим электронным таблицам для создания отчетов производительность снижается. очень плохой, а обновления занимают слишком много времени.
Моя цель: Я изучаю SQL и хочу использовать базу данных для устранения этого узкого места. Моя идея состоит в том, чтобы создать центральную базу данных, в которую будут импортироваться эти данные Excel, а затем подключить Power BI к этой базе данных. Мои технические вопросы:
Импорт (ETL): Каков рекомендуемый подход для регулярного перемещения данных из нескольких таблиц Excel в базу данных SQL? Лучше ли использовать SSIS, сценарии Python (с pandas) или собственные потоки данных Power BI?
Моделирование: Должен ли я просто реплицировать структуру своей электронной таблицы в SQL (одна «огромная таблица» на каждую таблицу) или необходимо нормализовать данные (например, создать таблицы измерений для плана счетов, центров затрат, и т. д., а также таблицу фактов для записей)?
Соединение (Power BI): Как только данные будут в SQL, какой режим подключения Power BI обеспечит наилучшую производительность для отчетов финансового контроля: Импорт (импорт данных в PBI) или DirectQuery (запрос к базе данных в режиме реального времени)?
Выбор СУБД (база данных): Учитывая мой профиль (новичок в SQL), нашу среду (корпоративную, в настоящее время на базе Windows/Excel) и цель (производительность Power BI), каковы ключевые технические факторы при выборе между PostgreSQL (бесплатно) и MySQL? Есть ли явные преимущества интеграции Power BI между собой?
Я бухгалтер, работаю в отделе финансового контроля. В настоящее время все наши данные по закрытию месяца и финансовой отчетности хранятся в электронных таблицах Excel, многие из которых содержат сотни тысяч строк. [b]Проблема:[/b] Этот сценарий вызывает две основные проблемы: [list] [*]Процесс консолидации вручную в Excel медленный и подвержен ошибкам.
[*]При подключении Power BI напрямую к этим электронным таблицам для создания отчетов производительность снижается. очень плохой, а обновления занимают слишком много времени.
[/list] [b]Моя цель:[/b] Я изучаю SQL и хочу использовать базу данных для устранения этого узкого места. Моя идея состоит в том, чтобы создать центральную базу данных, в которую будут импортироваться эти данные Excel, а затем подключить Power BI к этой базе данных. [b]Мои технические вопросы:[/b] [list] [*][b]Импорт (ETL):[/b] Каков рекомендуемый подход для регулярного перемещения данных из нескольких таблиц Excel в базу данных SQL? Лучше ли использовать SSIS, сценарии Python (с pandas) или собственные потоки данных Power BI?
[*][b]Моделирование:[/b] Должен ли я просто реплицировать структуру своей электронной таблицы в SQL (одна «огромная таблица» на каждую таблицу) или необходимо нормализовать данные (например, создать таблицы измерений для плана счетов, центров затрат, и т. д., а также таблицу фактов для записей)?
[*][b]Соединение (Power BI):[/b] Как только данные будут в SQL, какой режим подключения Power BI обеспечит наилучшую производительность для отчетов финансового контроля: Импорт (импорт данных в PBI) или DirectQuery (запрос к базе данных в режиме реального времени)?
[*][b]Выбор СУБД (база данных):[/b] Учитывая мой профиль (новичок в SQL), нашу среду (корпоративную, в настоящее время на базе Windows/Excel) и цель (производительность Power BI), каковы ключевые технические факторы при выборе между PostgreSQL (бесплатно) и MySQL? Есть ли явные преимущества интеграции Power BI между собой?