Я очень давно проверял метод хранения данных примерно по такой же схеме... У меня увеличивалось время загрузки данных в модели - в разы.. Т.е. для начала мы запускаем скан по папкам - там на выходе например 5000 файлов - эта таблица создается минуту... Потом каждый файл грузим и к нему делаем concatenate, верно ?

💬 4 odpowiedzi

Чтобы не сканировать все файлы, надо правила именования для них в рамках необходимой детализации делать. То есть не просто нарезать файлы, но и в момент обновления генерировать все возможные уровни. Потом уже по маске для нужного уровня их загружать

почему время вырастало в разы? у меня практически все модели с циклами загрузки.


📜 Podobne pytania