Разведка средствами Интернет


Введение. Краткая историческая справка

Повивальной бабкой современного Интернета с полной уверенностью можно считать Министерство обороны США, так как именно в параноидальных головах его руководства, озабоченного победой в III мировой войне, родилась остроумная идея разработки и создания компьютерной сети, способной функционировать после ответного ракетно-ядерного удара СССР по американской территории. Во исполнение этого задания было срочно создано Управление перспективных исследований «DARPA»1, к работе которого подключили сотрудника корпорации «RAND» Пола Бэрена и ученых из Массачусетского технологического института под руководством Леонарда Клейнрока.


Уже в 1964 году была впервые изложена на бумаге, а еще через пять лет воплощена на практике концепция ARPANET -первой в мире глобальной (WAN, Worldwide Area Network) компьютерной сети, построенной на принципиально новом принципе соединения узлов сети – коммутации пакетов.
В 1986 году Национальный научный фонд США связал ученых всей страны с пятью суперкомпьютерами, расположенными в различных научных центрах (они образовали базовую сеть NSFNET, которая стала позвоночником глобальной сети Интернет).
Что из этого получилось сегодня, вы можете оценить сами. По некоторым оценкам, ресурсы «всемирной паутины» составляют 550 млрд. документов, из которых 40 % доступны бесплатно. Навигацию в этом многообразии информационных ресурсов обеспечивают более миллиона поисковых систем, каталогов, баз данных.

Американские правительственные агентства давно уже оставили Интернет в покое, обзаведясь более мощными и дорогостоящими игрушками. В свое время каждое разведывательное ведомство США по соображениям безопасности создавало свои собственные системы сбора и распределения информации (АНБ – КРИТИКОМ, РУМО -ДЖЕЙВИКС, ДОДИИС, АМХС). Естественно, с течением времени назрела острая необходимость в их объединении, и уже в начале 90-х годов была поставлена задача создать в Интернете невидимый для большинства пользователей специальный закрытый, или, как его еще называют, секретный Интернет. Хотя в этой секретной сети, получившей название Интерлинк, также используется традиционный протокол TCP/IP, непосредственный доступ к секретной информации осуществляется через специальный протокол HTTPS при наличии специального браузера с набором криптографических алгоритмов, поставляемого только для зарегистрированных пользователей Интерлинк.
Сеть Интерлинк имеет четыре уровня доступа к разведывательной информации по степени секретности: первый уровень представляет особо важная информация для принятия политических решений, которую готовит и распределяет только ЦРУ через специальную сеть ПОЛИСИНЕТ для президента и Совета безопасности; второй – информация, имеющая гриф «совершенно секретно», к которой имеют доступ около 50 тыс. пользователей; третий – секретная информация, связанная с планированием военных операций, к которой имеют доступ 265 тыс. пользователей сети СИПРНЕТ; четвертый – несекретная информация из открытых источников (печать, Интернет, телевидение, радио), которая составляет свыше 95 % всей добываемой разведкой информации.


Роль и место аналитической разведки средствами Интернета

Одним из самых перспективных направлений работы службы безопасности хозяйствующего субъекта является аналитическая разведка (поиск) средствами Интернета. Этот комплекс мероприятий многие специалисты обозначают и как компьютерную разведку. Ее сущность заключается в поиске и передаче информации из компьютерных систем и сетей «всемирной паутины» с последующей верификацией и аналитической обработкой.

Большой интерес к методам аналитической разведки проявляют как государственные, так и негосударственные спецслужбы. Это обусловлено тем, что в Интернете содержатся огромные объемы сведений, представляющих оперативный интерес как для первых, так и для вторых. Поэтому во многих странах, в частности в правоохранительных органах России (МВД и ФСБ), США (ФБР) и Германии (BKA), созданы специальные подразделения аналитической разведки средствами Интернета.
Сфера деятельности этих госструктур – легальная разведка в глобальной сети, организация каналов связи с агентурой, сбор материалов по оперативно значимым ситуациям, проведение в сети активных мероприятий, изучение личностных характеристик политиков, ученых, военных, а также сбор и анализ информации, представляющей интерес с точки зрения государственной безопасности.
Аналогичные подразделения функционируют в транснациональных корпорациях, которые все больше и больше превращаются в государства в государстве.

Помимо этого существуют самостоятельные исследовательские центры, специализирующиеся на «выуживании» нужных данных в «цифровом океане». В Западной Европе и США сбор информации средствами Интернета уже давно превратился в весьма прибыльный бизнес. По сообщениям открытой прессы, только во Франции в настоящее время работает более десятка компаний, задачей которых является изучение документов, в том числе таблиц и рисунков, существующих в Интернет-пространстве. Как пример можно привести компанию лингвистической инженерии MAAG, которая ориентирована на информационно-аналитическое обеспечение таких ключевых отраслей французской экономики, как аэрокосмическая промышленность, транспорт и энергетика.

Для глобальных исследований в Интернете используются специальные «процессоры сбора данных». В данном контексте термин «процессор» не имеет ничего общего с микропроцессором, это часть программы, которая определяет, каким образом сама программа управляет и манипулирует данными. Процессор сбора данных использует программное обеспечение, получившее название «робот»: «робот» извлекает нужную информацию, используя целый арсенал средств лингвистического, семантического и статистического анализа. Действуя автономно, процессоры сбора данных перехватывают любую запрашиваемую информацию, как только она появится в Интернете.
Самым первым был рассекречен французский процессор «Taiga» (Traitement automatique d’information geopolitique d’actualite – «автоматическая обработка актуальной геополитической информации»). Этот программный комплекс первоначально разрабатывался для нужд французской разведки, где он затем ударно трудился в течение 11 лет, после чего был передан для коммерческого использования. Задачи, которые перед ним ставят теперь уже гражданские специалисты, остались теми же: «шарить» по Интернету для извлечения ценной информации из баз данных о патентах, сообщений информационных агентств и публикаций о научных конференциях.

Методика ведения аналитической разведки с помощью данного программного обеспечения следующая: обрабатывая материалы открытого доступа, имеющиеся в Интернет-пространстве, программа статистического анализа составляет так называемые карты работы в различных отраслях науки. В свою очередь это позволяет аналитикам устанавливать наиболее перспективные научные разработки в областях, где конкуренция пока что сравнительно невелика. Результаты количественного и качественного анализа результатов работы научных лабораторий позволяют оценить степень творческой атмосферы исследовательских коллективов. Это также может быть весьма полезным при выявлении «перспективных летунов», т.е. исследователей, которые за сравнительно короткий срок успевают поменять ряд представляющих интерес научных центров, а тем самым знакомы со многими результатами их работы.
Стоит упомянуть еще одну французскую разработку. Для проведения семантического анализа крупных информационных массивов компания «Acetic» совместно с учеными Парижского университета разработала пакет прикладных программ Tropes». Отбор требуемой информации происходит в соответствии с ключевыми словами и понятиями, связанными по смыслу. Так, например, название типа самолета «Мираж» соотносится со словами «самолет», «истребитель», а сочетание слов «госсекретарь США» автоматически ассоциируется со словами «министр», «политик». Данное программное обеспечение позволяет одновременно анализировать два текстовых информационных фрагмента объемом в несколько десятков книжных томов. Помимо этого «Tropes» предоставляет возможность создавать необходимые для работы информационные «сценарии», на основе которых автоматически осуществляется не только поиск, но и целевое группирование требуемых данных.

Технический прогресс не стоит на месте, и весьма очевидно, что если государственные спецслужбы отдают для коммерческого использования подобные разработки, то это может означать только одно – они получили в свое распоряжение что-то гораздо более мощное.
«Noemic», сменивший «Taiga» на боевом посту, не только сканирует, но и автоматически осуществляет «объединение источников», обрабатывая полученную информацию со скоростью 1 млрд. знаков в секунду, независимо от того, существует ли она в виде готовой базы данных или, например, передается электронным агентством новостей на любом языке в виде целостного текста. Этот семантический процессор сбора данных способен также подвергать обработке заслуживающие его внимания концепции, метафоры и совокупности идей. Если перед ним поставить задачу выявить, например, все случаи установления связей между гонконгскими и американскими фирмами, действующими в области микроэлектроники, за последние пять лет, то для ее выполнения ему хватит всего нескольких часов.
Американский аналог этих программных комплексов, который называется «Topic», также первоначально разрабатывался для нужд разведки. Данная система появилась на свет в результате длительных исследовательских работ, осуществлявшихся под контролем ЦРУ. Сегодня он также передан в коммерческое использование, и все права на него принадлежат калифорнийской фирме «Verity», мировому лидеру по сбору документальных данных.

Не отстают от «Verity» и ее конкуренты. Так, например, американская фирма «Intelligent Search Solutions» выпустила на рынок пакет программного обеспечения «InfoTracer», предназначенный для сбора разведывательной информации экономического характера в сети Интернет. Для «фильтрования» информации указанное программное обеспечение использует ключевые слова и фразы, после чего автоматически составляются сообщения необходимого пользователям содержания. В них могут быть, например, данные о деловых операциях конкретной компании и ее партнерах, используемых ими технологиях и выпускаемой продукции, а также фамилии руководящего персонала.
В данной связи хотелось бы отметить, что появление новых сетевых информационных технологий практически уравняло возможности конкурентов в получении необходимой исходной информации. Теперь основное значение имеют быстрота поиска и правильный анализ. В этом как раз и могут помочь процессоры сбора данных, позволяющие «извлекать» и анализировать необходимую информацию из крупных информационных массивов. Профессионалы прекрасно понимают, что экономическую разведку можно вести без компьютерных взломов, просто обрабатывая по специальному алгоритму огромные массивы информации, доступные каждому пользователю Интернета.
По оценкам специалистов, в настоящее время только в США насчитывается около 150 фирм, которые специализируются на анализе данных, полученных из Интернета. Причем новые фирмы растут, как грибы после дождя.
Но следует отметить, что аналитическая разведка средствами Интернета – это палка о двух концах. Дело в том, что если отследить и проанализировать тематику интересующих конкретный хозяйствующий субъект данных, имеющихся в Интернете, то достаточно просто можно построить причинно-следственную цепочку и выявить перспективные намерения предприятия, уровень его притязаний, по которым, в свою очередь, можно будет оценить его уровень развития. Для этого разработаны специальные «роботы роботов», которые позволяют перехватывать данные о работе системы, занимающейся целенаправленным сбором информации.

Наиболее продвинутые корпорации с целью введения в заблуждение о своих деловых контактах, разработках, финансовых и маркетинговых планах активно используют дезинформационные технологии (более детально они будут рассмотрены в главах «Активные мероприятия: информационно-психологическое воздействие» и «Информационно-аналитическая работа: дезинформация»). При участии экспертов-отраслевиков и при помощи специальных программных комплексов, также функционирующих на принципах лингвистического и статистического анализа, из кусочков уже опубликованных текстов и отдельных заумных терминов создаются и публикуются в Интернете различные материалы, мягко говоря, не соответствующие истинному положению дел: информационные сообщения, отраслевые обзоры, «научные» статьи, а иногда целые базы и банки данных.
Эффективность проведения дезинформационных мероприятий оценивается путем заказа через подставные компании у провайдеров «сетевой разведки» аналитических отчетов на самих себя. В дальнейшем контролируемая утечка этих отчетов в прессу выполняет роль «кругов на воде» и является материалом «вторичного закрепления» требуемых стереотипов у объектов дезинформационной атаки.
Предыдущий материал смог убедить большинство читателей в том, что использование методик аналитической разведки открывает огромные возможности по оперативному получению необходимых данных как из профессиональных баз и банков данных, так и из неструктурированной информации, имеющейся в Интернете.
Эти обстоятельства естественным образом выделяют аналитическую разведку в самостоятельное направление деятельности подразделений безопасности хозяйствующих субъектов, а в сочетании с другими технологиями аналитической обработки информации, которые будут описаны далее, позволяют говорить о целом комплексе разведывательных мероприятий, основанных на современных информационных технологиях.
В данной главе мы основное внимание уделим информационно-поисковой составляющей аналитической разведки, так как в рассматриваемой нами методике поиск в Интернете – это в основном только предварительный подбор информации.

Порядка 10-15 % нужной информации имеется в Интернете уже в готовом виде (необходима только верификация), а остальные 85-90 % получаются в результате сравнения, анализа и синтеза разрозненных и разбросанных по разным источникам фактов, по которым вполне можно составить хотя бы фрагментарную картину настоящего. Естественно, что информация, полученная таким образом, нуждается в уточнениях и верификации (проверке).

Но, во-первых, оперативность предоставления информации в определенной мере компенсирует ее неполноту.
Во-вторых, как правило, на первоначальном этапе знакомства и этот объем удовлетворяет заказчика.
И, наконец, в-третьих, при наличии дальнейшего интереса к исследуемому хозяйствующему субъекту эта предварительная информация поможет заказчику расставить акценты и задать ориентиры в дальнейшей работе.
Кстати, слегка переиначив вождя мирового пролетариата, стоит заметить, что вышеописанные методики «не догма, а руководство к действию». Наша с вами цель значительно проще и прозаичнее – попытаться предельно минимизировать свои трудовые затраты, как моральные, так и финансовые.


Каталоги

Каталоги представляют собой весьма удобный вид доступа к данным. Каталоги – это рубрикаторы или классификаторы, организующие множество документов в деревья или целые заросли рубрик.
Однако есть и весьма существенное НО: для эффективного использования каталога пользователю нужно правильно угадать принцип структуризации, который был применен при его создании и который зачастую существует только в головах авторов каталога. Поэтому для компенсации неудобств каталогов (если уж пользователь не знает, на какой ветке дерева «по логике» данного каталога лежит нужная ссылка, то не найдет ее никогда) они в последнее время стали включать и средства поиска. И наоборот – поисковые машины стали снабжаться каталогами; в частности обзавелся своим тематическим каталогом ресурсов ветеран русского Интернета «Рамблер».

В качестве примера для возможных изысканий можно привести следующие каталоги:

  • «I Yahoo» (http://www.yahoo.com);
  • «Ау!» (http://www.au.ru);
  • «List.Ru» (http://www.list.ru);
  • «Рамблер» (http://www.rambler.ru);
  • «Лица российских сайтов» (http://www.sites.ru:8000);
  • «Улитка» (http://www.ulitka.ru);
  • «Золотое Кольцо Российского Интернета» (http://www.catalog.net).


При работе с классификаторами следует учитывать, что сайты классифицируются разными каталогами по-разному, это и понятно, так как Интернет-пространство в принципе не может быть упорядочено линейно, оно имеет более сложную геометрию.
Например, каталог «Omen.Ru» (http://www.omen.orc.ru) уже на первом уровне структуризации своей коллекции оперирует более чем с 200 рубриками. «Рамблер» в качестве стартовой процедуры поиска информации предлагает 50 рубрик, одна из которых – «Классификаторы» – объединяет более 200 каталогов.

Сайты, обнаруженные в каталогах, например, бесплатные базы данных о регистрации зарубежных предприятий:

  • Великобритания http://www.companies.house.gov.uk
  • Италия http://www.infoimprese.it/
  • Франция http://www.infogreffe.fr и http://www.sociate.com
  • Республика Кипр http://www.mcit.gov.cy/drcor | Словакия http://www.orsr.sk
  • Чехия http://www.justice.ee
  • США (штат Делавэр) http://sos7es.state.de.us/tin/GINameSearch.jsp могут оказаться весьма полезными в дальнейшей работе.


Помимо хранилищ общего назначения существует множество специализированных каталогов, помогающих пользователям ориентироваться в достаточно узких предметных областях.

В качестве примера приведу несколько очень полезных сайтов различных государственных структур:

  • http://www.gks.ru – сайт Госкомстата,
  • http://www.customs.ru – сайт Таможенной Службы,
  • http://www.cbr.ru – сайт Центрального банка России,
  • http://www.fedcom.ru – сайт Федеральной комиссии по ценным бумагам.


Ну а для тех, кто желает повысить свой профессиональный уровень, познакомиться со свежими новостями, а также пообщаться с коллегами на форуме, можно порекомендовать для ознакомления следующие специализированные сайты, посвященные вопросам безопасности: Интернет-газета по безопасности (http://www.oxpaha.ru), портал it2Ь «Технологии разведки для бизнеса» (http://www.it2b.ru), сайт по безопасности (http://www.sec.ru) и сайт «Агентура» (http://www.agentura.ru). С более полной подборкой сайтов по вопросам безопасности можно ознакомиться в тематическом каталоге Рамблера «Безопасность».


Поисковые системы

Еще один простой и дешевый способ информационно-поисковой работы в Интернете – воспользоваться услугами бесплатных поисковых систем.
С помощью поисковых систем можно осуществлять различные манипуляции с информацией: индексирование текстов и поиск по одному (нескольким) ключевому слову (по индексу); морфологический поиск – разбор и отождествление различных грамматических форм слов; ранжирование по степени соответствия документа запросу.

На сегодняшний день самыми эффективными русскоязычными поисковыми системами являются Яндекс (www.yandex.ru), Апорт (www.aport.ru), Рамблер (www.ram-bler.ru). Из личного опыта могу посоветовать начинать именно с Яндекса, у него самая производительная поисковая машина, к тому же на его сайте имеются ссылки практически на все другие поисковики. Так, например, Яндекс дает ссылку на одну из лучших западных поисковых машин Google (www.google.com), которая при поиске информации просматривает свыше 1 600 млн. страниц.

Стоит отметить, что даже самые лучшие поисковые машины обрабатывают только вершину имеющегося в сети информационного айсберга. Поисковые роботы не могут просматривать закрытые для них коммерческие сайты, число которых в настоящее время приближается к миллиону. Эти сайты различны по содержанию (информация правительственная, законодательная, статистическая, научно-техническая, патентная, новостная и т.п.) и форме – например, сайты, содержащие видеоинформацию, музыкальные сайты.
Поиск нужной информации в данном случае осуществляется по следующему алгоритму: задается ключевое (поисковое) слово или фраза, и система ищет данное слово или фразу в базе данных, автоматически составленной поисковой машиной на основе текстового содержимого исследуемых сайтов.
Имеющимися техническими средствами полностью формализовать процедуру поиска информации пока не представляется возможным. Из-за того, что до настоящего времени не существует стандарта на размещение информации в Интернете, реализовать сложную стратегию поиска часто бывает весьма затруднительно. Поэтому при ведении аналитической разведки средствами Интернета приходится идти по пути информационной избыточности, что накладывает весомые ограничения на релевантность найденных документов. Из-за высокого процента информационного шума в общем объеме найденных документов значительно увеличивается время, необходимое для аналитической обработки полученных сведений.
Следует отметить, что результативность поиска в данном случае зависит от двух составляющих.
Во-первых, от степени соответствия ключевого слова или фразы поставленной информационной задаче, т.е. релевантности информационного запроса.
Причем если по первому запросу поисковая система нашла слишком много документов, то уже по отобранному массиву можно провести второй поиск с заданием дополнительных условий и тем самым сузить круг выдаваемых документов. Эта функция очень проста в исполнении (нужно только запомнить предыдущую выборку) и реализована в большинстве популярных машин, включая российские «Яндекс» и «Рамблер».

Помимо этого в современных поисковых машинах – западные AltaVista и HotBot, российские «Яндекс» и «Рамблер» – существует (по крайней мере, декларируется) функция интерактивного поиска («найти похожие»). Она также позволяет постепенно уточнить запрос: указать на один или несколько найденных документов и попросить найти документы, повествующие «о том же». Выполняется такой поиск путем превращения документа в поисковый запрос (естественно, с определенной степенью «сжатия», так как запрос слишком большим быть не может). Но нужно отметить, что работает эта функция весьма «капризно» – очень часто находит совсем не то, что ищешь.
Во-вторых, у каждой поисковой системы свой алгоритм поиска и перечень сайтов, входящих в базу данных поиска, поэтому при одном и том же запросе результаты поиска в различных поисковых системах могут значительно отличаться. Поэтому для чистоты эксперимента лучше всего последовательно «прочесать» информационное пространство Интернета при помощи нескольких поисковиков. При поиске информации о конкретных хозяйствующих субъектах или о целых экономических регионах особое внимание стоит уделить поиску официальных сайтов субъектов Федерации и муниципальных образований, где расположены объекты вашего оперативного интереса. При этом не стоит ограничиваться элементарным «скачиванием» заинтересовавшего вас документа. Стоит «обработать» весь сайт как следует. Это связано с тем, что очень часто на нем имеются ссылки на сайты местной торгово-промышленной палаты, средств массовой информации и т.д.

В качестве примера можно привести следующий случай. Служба безопасности предприятия, собирая информацию в отношении предполагаемого партнера в одном отдаленном субъекте Федерации посредством Интернета, вышла на официальный сайт данного субъекта Федерации. Официальная пресса, представленная там, расписывала возможного партнера, не жалея творческих сил и бюджетных средств. Но аналитики пошли дальше и через ссылку на официальном сайте администрации вышли на сайт торгово-промышленной палаты, а оттуда на сайт, посвященный местным СМИ. С данного сайта вышли на материалы одной из оппозиционных главе администрации региона газет и этим существенно расширили свои знания об исследуемом объекте на предмет имевшегося на него «негатива».
Кстати, при правильном подходе даже официальные сайты предприятий могут сообщить вам очень много интересного.

Так, например, накануне большой отраслевой ярмарки одна из крупных западных компаний на сайте своего основного конкурента обнаружила информацию о массированной кампании по стимуляции своего товара. Это позволило вовремя переработать подготовленный к выставке прейскурант и лишить конкурента возможности сыграть на явном ценовом преимуществе.
Или, например, если в сети появилось объявление вашего конкурента о поиске специалиста в новой для него области, то это может стать сигнальной информацией для вас о предстоящей смене приоритетов в хозяйственной политике конкурента.
Аналогично, если оперативно нужна информация по предполагаемым зарубежным партнерам, то при соответствующем подходе и знании иностранного языка, это тоже не проблема. На западных серверах существует масса доступных сайтов с очень интересной информацией, надо просто знать, где и что искать.
В начале 2005 года в Интернете для публичного тестирования открылся сервис ZabaSearch, являющийся одним из самых полных и всеобъемлющих поисковиков по информации в отношении персоналий, проживающих в США.

ZabaSearch идет дальше обычных бесплатных поисковиков типа Yahoo People Search, функциональность которых ограничивается лишь сведениями из телефонных справочников.
Информационная база ZabaSearch включает в себя неопубликованные телефонные номера, персональную информацию за последние десять лет и спутниковые снимки жилья. Свои индексные базы данных ZabaSearch формирует, обрабатывая тысячи источников в Интернете. Сейчас его индекс содержит более 2 млрд записей – в среднем по 10-12 записей на каждого гражданина США.
По бесплатному поисковому запросу, если в нем правильно указаны фамилия и штат проживания разыскиваемого человека, вы можете получить имя, дату рождения и домашний телефон любого американца.
Ну а если вы раскошелитесь на $25, то вам предоставят целое досье, включающее в себя информацию о приводах фигуранта в полицию, его налоговых долгах и банкротствах.
Торговля персональной информацией в США – это многомиллиардный рынок, операторами которого выступают различные организации, включая банки и государственные учреждения. Так, например, свои сведения о клиентах продает Государственная почтовая служба США.
(США: ZabaSearch – «боковичок» «ЭШЕЛОНА» по персональной информации… для шпионов и детективов. http://www.oxpaha.ru/view.asp714906)
Основные недостатки «бесплатной» информации – это не гарантированная полнота и достоверность данных, а также значительные затраты времени, необходимые для поиска нужных сведений.
Частенько представленные на сайтах данные вообще не обновляются или обновляются крайне нерегулярно. В качестве примера возможной неполноты имеющейся в Интернете информации можно привести тот факт, что, например, до сих пор на некоторых сайтах висит таблица Менделеева, в которой только 84 элемента, тогда как сейчас известны уже 112 (некоторые пока не имеют названия).