Добрый день, Яна,
Спасибо за дополнительную информацию.
В настоящее время операция Classify Ground Points полностью загружает облако в память, поэтому для больших облаков точек будет требоваться большой объём оперативной памяти.
Облако в шесть миллиардов точек потребует около 180 ГБ оперативной памяти (только на данный процесс).
В принципе, Вы можете рассмотреть возможность выделения нужного объёма для файла подкачки, но в этом случае классификация будет работать заметно медленнее, чем при достаточном объёме RAM. Так что, возможно, имеет смысл классифицировать такие большие облака по частям:
- выделить на глаз половину области в Model view (в режиме просмотра плотного облака точек),
- нажать кнопку Удалить,
- щёлкнуть правой кнопкой мыши по облаку точек в содержимом блока на панели Проект и выбрать пункт Создать Копию,
- переключиться обратно на исходное плотное облако (двойным щелчком мыши по его названию на панели Проект),
- нажать кнопку Отменить на панели инструментов,
- затем нажать кнопку Обрезать.
Затем для каждого из двух облаков точек использовать опцию Сжать Плотное Облако, после чего классифицировать каждое облако по отдельности с одними и теми же параметрами, а после классификации - объединить.
Для проверки можно для начала классифицировать только половину облака после дублирования и сжатия, чтобы оценить время. Для трёх миллиардов точек на классификацию потребуется около 90 ГБ оперативной памяти.