Рост производительности компьютеров и развитие фотограмметрии

0

Ф. Аккерман

ВВЕДЕНИЕ

Компьютеры стали сегодня обычными инструментами. Их используют повсюду почти все специалисты. Они оказывают огромное влияние на нашу жизнь вообще, и еще больше — на  профессиональную деятельность инженеров и ученых. Конечно, студенты любого университета считают мощные компьютеры само собой разумеющимся. Однако вероятно, не все знают, как все начиналось, они и представить себе не могут, как вообще работали наши специалисты в докомпьютерное время.

Рис. 1. Блочная фототриангуляция: xy→XYZ
Рис. 1.
Блочная фототриангуляция: xy→XYZ

В статье мне бы хотелось рассмотреть вопросы развития компьютеров и их влияние на развитие фотограмметрии,  при этом я буду опираться на свой  собственный опыт, полученный в 1970–2000 гг. Не буду упоминать первые попытки в 1960-х гг. провести фотограмметрические вычисления на электронных машинах, а сразу начну с 1970 г., когда произошло первое действительно серьезное применение компьютеров для решения фотограмметрических задач. Оно касалось решения вопросов блочной фототриангуляции, т. е. одновременного определения координат всех точек сети и всех параметров ориентации снимков методом наименьших квадратов (рис. 1).

УРАВНИВАНИЕ СЕТЕЙ ФОТОТРИАНГУЛЯЦИИ ПО БЛОКАМ

Примерно в 1970 г.  в Штутгарте мы создали  свою первую программу на языке FORTRAN  для уравнивания блоков по методу независимых моделей. Немного позже появилось уравнивание методом связок. В чем была сложность? Рассмотрим, например, небольшой блок снимков: 8 аэрофотосъемочных маршрутов x 25 моделей каждый = 200 моделей. Допустим, у нас есть примерно 10+2 точек на модель, что составляет примерно 800 неизвестных точек местности. Это  дает нам 7200 наблюдаемых xyz координат точек моделей при 2400 неизвестных XYZ координат точек местности и 1400 неизвестных элементов внешнего ориентирования моделей, всего 3800 неизвестных параметров. Избыточность системы составляет  r = 3400, или относительное число (избыточности к количеству неизвестных)  r/n = 0,47. Наличие некоторых опорных точек  не влияет на статистические данные при таких больших числах.

Ясно, что такое уравнивание методом наименьших квадратов можно выполнить только с помощью компьютеров. Задачи уравнивания таких объемов никогда прежде не решались, даже для геодезических сетей. Мы о компьютерах в то время знали очень мало. Но было очевидно, что наступает их эра, и мы просто полагали, что они нам помогут. Вот так в 1967/68 гг. мы (и другие исследователи) занялись программированием для решения задач фотограмметрии. В вычислительном центре нашего университета в 1968 г. получили большую универсальную ЭВМ Control Data CDC 6600 — одну  из самых быстродействующих в то время. Мы думали, что она решит все вопросы, и не ожидали никаких трудностей. Но все оказалось совершенно по-другому. Я был весьма наивным в то время и пошел в вычислительный центр, ожидая, что у них будут программы для решения линейных уравнений. У них было несколько программ, но ни одна из них не решала систем, если в них было более 100 неизвестных. Я помню, что  не мог поверить этому и был совершенно расстроен: ведь мне надо было решать уравнения с 3000 неизвестных. Поэтому сначала нам пришлось разрабатывать программу для решения больших систем линейных уравнений.

Тщательный анализ  нормальных уравнений показал, что они обладают особой структурой. Центральная подматрица для неизвестных координат местности является строго диагональной. Ее можно инвертировать по формуле и таким образом априорно исключить указанную группу неизвестных. Оставшиеся приведенные нормальные уравнения для параметров ориентации можно расположить так, чтобы сформировать по диагонали ленту, которую можно минимизировать. Это было особенно важно, потому что время решения изменяется по формуле ub2, где b — ширина ленты. Коэффициент 2 в ширине ленты приводит уже к коэффициенту 4 для времени решения. Кроме того,  в своем подходе к решению независимых моделей мы воспользовались быстро сходящимися итерациями между уравниванием в плане и по высоте.

Все другие части программы работали более или менее без каких-либо проблем. Также хорошо шла линеаризация первоначально нелинейных уравнений наблюдений. Обычно было достаточно 3 итерации, в случае с  плановыми снимками.

Когда мы занимались указанной работой, то стремились смотреть вперед и уже думали о передаче управления данными от оператора  к компьютеру. Новая философия подразумевала:

  • возможность использования блоков снимков произвольного размера (в то время он был 200, 1000, 5000);
  • произвольные многократные перекрытия;
  • произвольное количество точек сети, опорных/контрольных точек;
  • произвольную числовую систему нумерации для всех точек на местности,
  • и самое важное:  компьютер должен был автоматически находить коэффициент перекрытия и функции привязки и контроля точек, основанные на нумерации наземных точек; измерять модели и точки можно было  в произвольной последовательности.

Примерно в 1970 г. у нас появилось очень общая, но мощная программа, названная PAT-M, для уравнивания блоками методом наименьших квадратов по независимым моделям, а немного позже – для уравнивания  связками, она называлась PAT-B. Программу написали на языке FORTRAN, в ней было примерно 5000 команд. Мы применили ее на крупной ЭВМ Control Data CDC 6600,   а вскоре адаптировали ее для универсальной вычислительной машины. У CDC 6600 скорость была примерно 1 мегафлоп операций с плавающей запятой в секунду, тактовая частота была > 1 МГц, объем памяти на магнитных сердечниках составлял 128 000 слов, из которых мы могли использовать только 50 000 (!). Стоимость машины была примерно 10  млн долл. Ввод данных осуществлялся с перфокарт. Время решения для уравнивания блока среднего размера составляло от получаса до 1­–2 часов. Большие блоки решались почти сутки. Но в то время продолжительность вычислений была не важна, поскольку предыдущие операции по переходу от точки к точке и все измерения делались вручную и занимали, минимум, полчаса на модель.

  • Наша программа для уравнивания блоками была очень удачной и применялась в практике в течение нескольких лет. Она стала настоящим прорывом, а уравнивание блоками стало стандартной, очень эффективной процедурой в фотограмметрии. Но для этого потребовались первоначально большие универсальные вычислительные машины, который стали появляться в университетах и национальных вычислительных центрах в течение 1970-х гг.
  • В последующие годы, с 1970 г. примерно до 1990 г., появились многие методические усовершенствования, которые я упомяну только кратко.
  • В практику вошли  блоки по 500, 1000 и более снимков.
  • Теоретические и экспериментальные исследования выявили правила оптимального расположения наземных опорных точек и показали положительное влияние их геометрии на  точность уравнивания блоков. Особенно интересной была ситуация с точками планового обоснования по периметру блоков. Получаемая точность перестает зависеть от размера блоков и остается близкой к величине измерительной точности σкоординат точек снимков;
  • Большое практическое значение имело автоматическое обнаружение и устранение грубых ошибок в данных методом отслеживания данных Баарда (Baarda). Ошибки всегда случаются, например, неправильный номер точки или ее ошибочная идентификация. С выявлением ошибок были связаны исследования теоретической надежности. Они позволили получить 3σ предел произвольных ошибок.
  • Надежность показывает пределы, до которых можно  теоретически распознать  грубые ошибки, в зависимости от локальной избыточности.
  • Следующий шаг касался остающихся неизвестными систематических ошибок изображения, которые всегда присутствуют в определенной мере. В блочной фототриагуляции появился метод самокалибровки с дополнительными параметрами. Так как существовала высокая избыточность, то эти параметры очень хорошо определялись и исправляли практически все существенные неизвестные систематические ошибки изображения. Это оказало значительное воздействие на получаемую точность, которая достигла для координат точек снимка  величины σ0 → 5 μm  относительно σ0 → 2 μm  для маркированных точек.
  • Заключительным важным этапом стало введение в блочное уравнивание элементов внешнего ориентирования, зафиксированных в полете — линейных с помощью GPS, угловых с помощью инерциальной навигационной системы (INS φωκ). Эти вспомогательные данные позволили стабилизировать блоки и значительно снизить количество требуемых наземных опорных точек. Теоретически блоки стало возможным определять даже и без них. Но из-за точного геокодирования обычно некоторое количество опорных точек все же  используют (рис. 2).

Все эти разработки были очень важными для повышения качества и эффективности аэротриангуляции. Все они стали возможными благодаря развитию теории и методики, но для их реализации не требовались более мощные компьютеры, так как они практически не затрагивали процессы уравнивания.

Рис.2. Схематически представлен блок, полученный по данным GPS и геокодированный с очень малым количеством точек наземного контроля
Рис.2.
Схематически представлен блок, полученный по данным GPS и геокодированный с очень малым количеством точек наземного контроля

В течение 1980-х гг. произошел новый большой скачок в фотограмметрии, основой которого стало повышение эффективности работы ЭВМ. Он затронул взаимную привязку цифровых изображений. В это время для оцифровывания  аэроснимков появились сканеры, с разрешением 15–30 μм. Сегодня мы получаем цифровые снимки непосредственно с цифровых камер. С помощью автоматических методов отождествления (нахождения и измерения) одноименных точек на любых перекрывающихся снимках. Снимки стереопары приводятся к идеальному случаю съемки путем трансформирования (рис. 3). Использовались пирамиды изображений.

Рис. 3. Один и тот же участок на перекрывающихся снимках
Рис. 3.
Один и тот же участок на перекрывающихся снимках

В Штутгарте мы применили отождествление соответственных точек  методом наименьших квадратов. Позже появился метод, основанный на привязке по отдельным характеристикам, а в настоящее время идут поиски дальнейших усовершенствований методов отождествления соответствующих точек.

Автоматическое определение координат соответствующих точек на снимках имело два важных последствия. Во-первых, повысилась точность определения координат изображений, которая составляла примерно 5 μм и выше (0,2 размера пикселя). Но намного более важным было второе следствие: весь измерительный процесс для аэротриангуляции стал автоматизированным, и, таким образом, значительно быстрее. Оператор стал ненужным, кроме измерения опорных точек. С помощью метода стало также возможным измерять не отдельные одиночные связующие точки, а целые серии точек. Это повысило избыточность и сделало блоки намного более стабильными. Конечно, вычислительная нагрузка выросла, нужны были более быстрые и эффективные вычислительные машины.

Рис. 4. Блок III по данным GPS в проекте округа Балтимор (США)
Рис. 4.
Блок III по данным GPS в проекте округа Балтимор (США)

В 1996/97 гг.  мы применили в компании INPHO метод корреляции изображений в большом блоке цифровых изображений, полученных со спутников GPS, со стандартными 60% / 20% перекрытиями. Работа проводилась в блоке III проекта округа Балтимор (США).

Данные представлены  в табл. 1. Были просканированы в черно-белом цвете 1720 цветных снимков, с разрешением пиксела 21 µm, что составило всего примерно 100 мегапикселов, с глубиной яркости 8 битов. На это потребовалось много времени: 4 минуты на изображение или всего 115 часов. Сегодня цифровые изображения получают непосредственно с цифровых камер. Вычисления для корреляции изображений и уравнивания блоками были выполнены на рабочей станции Indigo 2 фирмы Silicon Graphics SGI, с оперативной памятью 448 мегабайт и быстрым процессором R10000.  Тактовая частота — 175 МГц, объем диска 292 гигабайта, и внешняя память на дисках — 300 гигабайтов. Для того времени размер блока в 1720 цифровых изображений и, соответственно,  уравнивание 134040 неизвестных считались  огромными.

Таблица 1

 Проект округа Балтимор, Блок III, 1996/97 гг.

Блок Время Результаты
Цель: ГИС округа

 

Масштаб изображений: 1:6000

 

Количество изображений: 1720

 

Залетов: 29 + 3

 

Наземный контроль: 15 XY, 15 Z

 

Контрольные точки: 28 XY,77 Z

 

Все снимки были привязаны с помощью GPS

Сканирование: 21 µm, 115 час

 

Пирамиды изображений: 3 мин/изображение, 86 час

 

Автоматическое измерение связующих точек: 4 мин/изображение, 118 час

 

Уравнивание блоком, данные отредактированные: 3 час

 

Количество наблюдений 294 600

 

Количество неизвестных: 134 040

σ0 = 4,8 μm

 

остаточная среднеквадратическая ошибка (rms):

vx = 3,8 μm

vy = 3,5 μm

 

контрольные точки:

 

rmsx = 6,8 см

rmsy = 7,2 см

rmsz = 9,3 см

 

 

Для расчетов использовался компьютер Indigo 2 компании Silicon Graphics SGI, оперативная память — 448 мегабайт, 175 МГц, внешняя память на дисках — 300 гигабайт, процессор — R10000

В табл. 1 показано, что вычисления на некоторых этапах занимали довольно много времени. В частности, создание пирамид изображения и автоматические измерения 162 000 точек изображений для 39 500 связующих  точек привязки занимали 3 мин. на изображение = 86 час. и 4 мин. на изображение = 118 час. Собственно времени на проведение уравнивания требовалось несравненно меньше. А последний проход с отредактированными данными (после нескольких предварительных проходов) занял всего три часа. Полученная точность, оцененная по нескольким контрольным точкам, была очень высокой и имела среднеквадратическую величину 4 см по осям X и Y и 7 см — по Z.

У проекта было две основных задачи. Доказать, что, прежде всего, GPS измерения для больших блоков снимков, а с другой стороны, цифровая аэротриангуляция, будут давать требуемую точность измерений. Однако  получение и накопление данных в процессе измерений связующих точек и уравнивания изображений занимало много времени — 200  час. И, тем не менее, такой процесс был намного быстрее по сравнению с измерениями вручную, на что ушло бы > 1000 час. Сегодня это уже все — история: спустя только 13 лет благодаря современным персональным компьютерам мы выполняем подобные вычисления в 100 раз быстрее.

Давайте теперь взглянем на развитие компьютеров  в 1980-е гг. Мы начали свою работу  в 1970-х гг., когда появились большие универсальные вычислительные машины  CDC 6600.    Использовались и компьютеры компании IBM, серий 360 и 370. Такие машины были доступны только в университетах или крупных вычислительных центрах. Поэтому  было логично, что развитие компьютеров было направлено на  уменьшение их размеров и, конечно же,  удешевление их стоимости, с тем чтобы их могли покупать небольшие  компании. Стали популярными компьютеры среднего размера, известные как рабочие станции — терминалы. Они были медленнее, чем крупные универсальные вычислительные машины, но благодаря им программирование стало стандартизированным. Рабочая станция компании Silicon Graphics, на которой производились вычисления в приведенном примере проекта округа Балтимор, была вполне достаточной для стандартного уравнивания блоками. Тогда еще не выдвигались более жесткие требования к автоматической цифровой аэротриангуляции, как в примере блока из проекта округа Балтимор. Не будем больше останавливаться на описании компьютеров среднего класса, поскольку они все сегодня уже история.

Давайте теперь взглянем на нашу сегодняшнюю ситуацию, когда полностью исчезли большие универсальные вычислительные машины, уже уходят в прошлое и графические рабочие станции. После 2000 г. стали развиваться персональные компьютеры (ПК). Они представляют собой огромный шаг вперед. Их скорость достигает 50 гигафлопов операций с плавающей запятой, рабочая память — около 16 гигабайт, объем памяти на  твердом съемном диске — до 2 терабайтов (тeрa = 1000 гига = 1012) на диск. Можно подключать несколько дисков. Тактовая частота — почти  3 ГГц.

В табл. 2  показаны предоставленные компанией INPHO примеры того,  как сокращалось время вычислений с появлением новых ПК, начиная с 1997 года до нашего времени. В качестве теста было использовано блочное уравнивание с помощью одной и той же программы одного и того же блока из 275 изображений в цифровой форме. В изображения преднамеренно были введены грубые ошибки, поэтому в данном случае потребовалось провести 25 итераций вместо обычно требуемых 3–4. Подобное уравнивание указанного блока изображений занимает на современном ПК менее 1 сек., что совсем незначительно по сравнению с относительно  более долгим процессом вычисления автоматических измерений связующих точек. Всего для триангуляционных вычислений небольших блоков на современных ПК, включая автоматические измерения связующих точек, требуется несколько минут, а более крупных блоков может потребоваться несколько часов, хотя скорость остается одинаковой: 5–10 сек. на изображение. Эффективность автоматической  аэротриангуляции по изображениям в цифровом формате увеличилась многократно. А цена на подобные очень мощные ПК снизилась до 1000 долл. и даже ниже. По сравнению с нашей универсальной машиной Control Data CDC 6600, которую мы применяли в 1970 г., соотношение цена / производительность стало равняться 1:109.

Таблица 2

Блочное уравнивание на ПК 275 цифровых изображений, 25 итераций для обработки грубых измерений

  • Рабочая станция компании Silicon Graphics, процессор R 10000 378 сек. 1994 г. Модели ПК:
  • Intergraph PPro 200 с двойной шиной 361 сек. 1997 г.
  • Compaq Laptop 700 МГц 109 сек. 1999 г.
  • Sony P4, 2.0 гигаГц 51 сек. 2000 г.
  • Fujitsu Siemens Centrino 1.6. ГГц 31 сек. 2003 г.
  • Dell Dimension PXP601, 2.4 ГГц 19 сек. 2005 г.
  • Drll Precision Quad CPUQ9550 15 сек. 2007 г.

* На сегодня 2-5 сек. 2010 г. (<0.1.сек.)

 

Что касается аэротриангуляции, то на сегодня у нас фактически больше нет никаких серьезных ограничений. Мы выходим далеко за рамки приложений фотограмметрии, которые были раньше. Действительно, с помощью цифровых камер можно получать многократные перекрытия, особенно для городских территорий. При перекрытиях 90 % / 90%, например, мы получаем в 16 раз больше изображений, чем при стандартных 60 % / 20%. Уже начинают говорить о размерах блоков в 10 000 или 20 000 изображений. Так или иначе, мощность современных персональных компьютеров невероятна. Она позволяет уже сегодня и в ближайшем будущем расширять блоки до громадных невиданных ранее систем.

Прежде, чем закрыть эту главу, мне хотелось бы вспомнить закон Мура. Он гласит, что скорость работы компьютеров удваивается каждые 18 месяцев, а объем памяти центрального процессора удваивается каждые 24 месяца. Это  соотношение остается удивительно линейным на протяжении уже 50 лет. И оно, кажется, сохранится и в ближайшем будущем. А эффективность сетевых вычислений (распределенные вычисления) удваивается каждые 9 месяцев.

Есть еще один вопрос, который следует упомянуть здесь. Благодаря данным GPS и инерциальным системам можно определить координаты центров проекции и угловую ориентацию всех снимков в полете. Если эти измерения были бы достаточно точными, то можно было бы непосредственно использовать эти данные по ориентации, после некоторых преобразований, избегая полностью этап аэротриангуляции. Точность блочной триангуляции по снимкам масштаба 1:6000 с использованием данных GPS и инерциальной навигационной системы (INS), достигает приблизительно 5 см по осям  X, Y и 8 см по оси  Z. Прямое использование данных  GPS и INS (без уравнивания блока) дало бы нам точность до 11 и 14 см, соответственно, по осям  X  и  Y и 29 см по оси  Z, что уже может быть достаточно для создания ортофото. Остается только увеличить точность в 3 раза, чтобы достичь точности, требуемой для блочной  триангуляции.  Это будет зависеть, в первую очередь, от развития датчиков инерциальной навигационной системы, и тогда аэротриангуляция уйдет в историю.

ЦИФРОВЫЕ МОДЕЛИ РЕЛЬЕФА  (ЦМР)

Рис. 5. Цифровая модель местности
Рис. 5.
Цифровая модель местности

Совершенно новым способом 3-хмерного представления местности стали цифровые модели местности (ЦМР), они появились примерно в 1970 г. Реализация ЦМР, также как и уравнивание блоками, зависела от эффективности вычислительных машин. В ЦМР рельеф местности покрывается густой сетью квадратов  или треугольников (рис. 5). Сеть получают вычислениями по нескольким наблюдаемым точкам. Сначала измерения по точкам осуществлялись  вручную оператором на стереоплоттерах. В случае необходимости в сочетании с фотограмметрическими наблюдениями могли также использоваться данные наземной тахеометрической съемки. Задачей вычислений, которые выполнялись на компьютере, было, по сути, осуществить интерполяцию сетки. Позже были добавлены некоторые усовершенствования, такие как линии разрыва и вершины и понижения в ландшафте.

Цифровые модели местности первоначально предназначались для получения горизонталей. Вскоре стало понято, однако, что цифровые модели местности — это общая форма геометрического описания местности. ЦМР представляют собой главный продукт, на основе которого можно получить другие продукты, например, горизонтали, карты уклонов, профили местности, определять различные объемы, получать виды в перспективе и т.д. Кроме того, можно определять опасные зоны наводнений, селей или оползней. Сегодня подобное представление местности стало стандартным, и его используют для разнообразных приложений.

У себя в Штутгарте мы разработали  свою первую программу для создания ЦМР  примерно в 1970 г. Она первоначально предназначалась для получения  горизонталей и была названа  SCOP (Штутгартская  программа для вычисления горизонталей). Но мы считали ее самостоятельным независимым продуктом, который можно было непосредственно использовать в относительно больших системах измерений. Тогда обычно в стереопаре измеряли около  1000 точек местности, иногда до 2000, что  означало расстояние между точками в масштабе изображения несколько мм. Использовалось также и полуавтоматическое измерение профилей, где измерялось еще больше точек, но это делалось,  главным образом,  для производства ортофото. Интерполированная сетка была обычно весьма плотной. Мы создавали примерно в 10 раз больше точек сетки,  чем наблюдаемых точек,  предел составлял  50 000 точек сетки на  стереомодель. Это означало, что наборы данных, которые приходилось обрабатывать и хранить, требовали значительного времени, особенно если речь шла о территории с десятками стереомоделей. Поэтому, как и в случае с уравниванием блоками, было ясно с самого начала, что решить подобную задачу  под силу лишь вычислительным машинам.

Мы уже кратко познакомились с развитием компьютеров , когда говорили об аэротриангуляции. Требования к эффективности их работы для целей создания ЦМР не были чем-то особенным,  и она не менялась значительно в течение долгого времени. Но ситуация изменилась кардинально после 1990 г., когда для автоматических стереоизмерений точек на цифровом изображении стало возможным использовать корреляцию цифровых изображений. В табл. 3 дан пример, относящийся к началу 1990-х гг. Это — одна из наших первых попыток создания ЦМР с помощью автоматических измерений точек. Вычисления проводились на компьютере компании Silicon Graphics,  с процессором R 4000. Фотографии были предварительно оцифрованы с помощью сканера, размер пиксель — 15 μм, всего 470 мегапикселов. Скачок в производительности и разрешении очевиден. Было измерено значительно больше точек на местности, чем точек сетки: в нашем примере  около 1 миллиона точек на местности для 80 000 точек на сетке. Время вычислений составляло  примерно 150 точек в секунду  =  1,5 часа. Для того времени это казалось удовлетворительным.

Таблица 3

Пример: автоматическое  создание ЦМР с помощью модуля MATCHT, 1992 г.

Размер пикселей 15 µm
Время вычислений/модель

Количество 3D точек

Количество точек сети

Количество точек /сеть

Скорость измерения 3D точек сетевых точек

1,8 час.

1 миллион

80000

> 10

150/сек.

12/сек.

 

В результате недавнего скачка в производительности, которую достигли ПК,  подобные показатели становятся  полностью устаревшими. Сегодня мы работаем примерно в 100 раз быстрее. Автоматические измерения точек снимков и интерполяция ЦМР занимают только 1–5 мин. на стереопару. Однако общее время вычислений  все еще остается в пределах часов.

Рис. 6. Воздушное лазерное сканирование
Рис. 6.
Воздушное лазерное сканирование

Создание больших ЦМР  получило еще одно ускорение в своем развитии за последние 15 лет в связи с началом применения бортовых лазерных сканеров. Лазер испускает импульсы, и затем измеряется задержка по времени на отраженном сигнале. Это позволяет вычислить расстояние до точки поверхности Земли. Измерив направление луча лазера в пространстве  можно получить координаты точек местности (рис. 6).  Точность составляет порядка нескольких см, в зависимости от характера поверхности. Самым полезным свойством  лазерных измерений является тот факт,  что мы  получаем на территории с  растительностью многократно отраженный сигнал. Таким образом, одновременно можно получить и цифровые модель поверхности и модель рельефа, что особенно важно для территорий, покрытых лесом. Технические характеристики сегодняшних лазерных сканеров значительны. Теперь можно измерять до 600 000 точек в секунду. За  один час полета мы получаем более  2×109 точек или 10–50 точек на m2, в зависимости от высоты полета. Такая высокая плотность особенно нужна для наземных приложений в подвижных станциях. В любом случае, объемы  входных данных достигают миллиардов измерений.

Подведя итог,  мы можем сказать, что для ЦМР требуются огромные системы данных с миллиардами точек. Они подразумевают очень высокие плотности точек, что гарантирует высокую детальность представления  сложных  объектов. И чтобы справиться с этим, необходимо полностью использовать производительность современных персональных компьютеров.

Существующие ограничения для ЦМР не лежат в области компьютеров,  а скорее они лежат в сфере программного обеспечения и методике. Перед нами стоят проблемы очень больших облаков точек, по которым требуется автоматически извлекать объекты. Это достаточно легко делается в стандартных случаях. Но проблема автоматического извлечения сложных объектов, таких как здания, дороги, парки, промышленные зоны и т.д. для городского моделирования еще не решена полностью. Сейчас проводятся научные исследования, как лучше всего объединять данные по изображениям с данными лазерного сканирования.

ЗАКЛЮЧЕНИЕ

Суммируя итоги развития аэрофотограмметрии за предыдущие 40 лет и ее зависимость от производительности компьютеров, мы можем выделить 3 основных этапа, которые можно назвать прорывами. Прежде всего, это блочное уравнивание методом наименьших квадратов. Во-вторых, цифровые модели местности, и наконец, корреляция цифровых изображений, которая значительно продвинула  автоматизацию в фотограмметрии. Эти этапы стали возможны благодаря повышению производительности вычислительных машин и компьютеров и различных используемых  сенсоров. Однако они также представляют творческое развитие и самой фотограмметрической науки. Фантастическое соотношение стоимости компьютера и его производительности 1: 109 по сравнению с 1970 г.  конечно, способствует расширению сфер приложений и  методов  аэротриангуляции. Даже 10 или 15 лет назад существующий уровень аэротриангуляции и цифровых моделей рельефа был немыслимым. Но нужно работать дальше: особенно над автоматическим распознанием объектов по цифровым изображениям. Оно нуждается в более совершенном теоретическом обосновании и программном обеспечении. Необходим творческий подход к решению этой задачи.

Можно говорить и о повышении производительности компьютеров. Сейчас создаются ЦМР с очень высокой плотностью:  одна точка местности на  каждый пиксель изображения. Это дает  примерно 1 миллиард точек местности, покрываемой одним снимком. В заключении я могу процитировать Франца Леберла (Franz Leberl) из Австрии, который сказал некоторое время назад: «Скоро у нас будут спутниковые снимки с разрешением 20 см». Тогда мы сможем получить многократное покрытие всей поверхности Земли. Это означает, что у нас будет > 1016 пикселей по снимкам и около 1015 пикселей на местности. Нам остается только ждать, позволит ли это окончательно решить задачу, стоявшую веками, по полному  картографированию Земли.

В конце мне хотелось бы еще раз подчеркнуть, что я описывал только свой личный опыт. Все приведенные примеры взяты  в Институте фотограмметрии Штутгартского университета и компании-разработчика программного обеспечения INPHO, которую я основал в 1980 г. Я сам непосредственно принимал участие в развитии фотограмметрии  до примерно 1995 г. и немного позже,  и рад, что и мой вклад есть в этом. Это было очень интересное время. Сейчас я уже не работаю и не принимаю участия в новейших разработках. Я просто восхищаюсь ими.