Когда-то, в далеком 1962 году, Дж. К. Р. Ликлайдер, один из идеологов зарождающейся сетевой идеологии, прозревая будущее, предвидел, что компьютеры позволят создать универсальную коммуникационную среду, в которой любой человек в любой точке земного шара сможет использовать объединенные информационные ресурсы всего человечества. Во многом это предвидение сбылось, особенно в части, которая касается глобализации компьютерных сетей, в частности, интернета, и массовости их пользователей. С доступностью же информации дело обстоит далеко не так просто, как это виделось на заре сетевой эры. Это связано с несовпадением как стратегических интересов национальных государств и их альянсов, так и непосредственных экономических интересов отдельных людей и корпораций. Последние увидели в интернете универсальную бизнес-среду, и с грезами о невиданном размахе электронного бизнеса проводили ушедшее тысячелетие.
Эти надежды явно или неявно были связаны, кроме всего прочего, с исторически реализовавшейся иерархической архитектурой Сети, основанной на модели "сервер-клиент", поскольку высокая степень централизации позволяет осуществлять управление и контроль в процессе, например, финансовых операций. С экономической точки зрения эти надежды были вполне рациональными, поскольку экономическое поведение и осуществляется как свободный выбор в условиях "редкости" ресурсов (А. Минченко). "Редкие" ресурсы требуют упорядоченной дистрибуции, возрастает значение (ценность) информации об этих ресурсах, и модель "сервер-клиент" как нельзя лучше отвечает такой потребности. В бизнес-использовании интернета были заинтересованы не только непосредственные производители товаров и услуг, но и те, кто основывал свои бизнес-планы на информационном посредничестве. Владельцы больших серверов, имеющих большую память и обеспечивающих быстрое соединение, хостировали информацию и предоставляли ее на определенных условиях владельцам более скромных ПК. Сеть, которая, по замыслу ее первых разработчиков, должна была быть распределенной, чтобы быть безопасной и эффективной, стала, скорее, распределительной.
Но именно в последние годы ушедшего тысячелетия появились и первые "облачка", которые, как теперь становится все более очевидным, могут в ближайшем будущем вызвать что-то вроде "сетевой бури", по крайней мере, значительно изменить привычный уже для многих облик Сети. Проблематичным электронный бизнес прежде всего становится для многих производителей товаров, легко конвертируемых в цифровой формат: текстов, графики, аудио- и видеопродукции и т.п., т.е. товаров, чья ценность основывается на их высокой семиотичности (знаковости), а значит, и относительно высокой независимости от конкретных вещественных воплощений.
Первый удар по конвенциональному бизнесу и модели "сервер-клиент" был нанесен компанией Napster, которая успешно внедрила в массы музыкальных фанов технологию Р2Р (от peer-to-peer, "равный с равным"), суть которой заключалась в том, чтобы дать возможность компьютерам напрямую коммуницировать через интернет, минуя центральные серверы. Программу Napster написал в 1999 году бывший студент колледжа 19-летний Шон Фаннинг с целью создать среду, в которой меломаны могли бы обмениваться информацией о содержимом своих коллекций и находить интересующие их MP3-файлы. Сама Napster никаких хранилищ не имела и выступала только информационным посредником. Начиная с сентября 1999 года, число пользователей Napster росло лавинообразно и достигло нескольких десятков миллионов.
Речь, конечно, шла прежде всего о пиратских (нелицензионных) копиях музыкальных произведений, авторы которых ничего, кроме свидетельства своей популярности, от такой сетевой дистрибуции не имели. Естественно, это не могло не обострить проблемы авторских прав в интернете. Прокатилась волна судебных разбирательств. И, похоже, что Napster "прикажет долго жить". Одна из причин юридической уязвимости Napster - это наследие старой клиент-серверной модели, поскольку пользователи системы зависели от программы и указателей, предоставляемых Napster.
Но ошеломительный успех Napster вдохновил других романтиков "свободы информации". Быстро появились последователи, усвоившие опыт предшественника: программа Scour.net, различные клоны Gnutella (Gnotella, Newtella, Gnut, LimeWire, ToadNode) и подобные. Основная особенность клонов Gnutella - децентрализованный характер реализуемой сети пользователей и полностью открытый код. Компьютер, на который установлена соответствующая программа, превращается в "сервент" (servent), т. е. одновременно является и клиентом, и сервером, который готов к связи с другим сервентом в своем непосредственном окружении и непосредственному обмену файлами с ним. При запросе информация очень быстро достигает тысяч подобных сервентов, обеспечивая высокую эффективность поиска. При этом децентрализованному распределению доступны любые типы файлов, не только музыкальные, при отсутствии очевидных объектов юридической ответственности.
Правда, Gnutella столкнулась с проблемами иного рода. Из-за экспоненциального роста запросов (особенно после возникновения серьезных проблем с законом у Napster) многие сервенты просто "захлебывались", и сеть фрагментировалась на десятки небольших, несвязанных между собой сетей, объединяющих примерно 1000 компьютеров. Узким местом Gnutella является и то, что сервенты должны знать IP-адреса друг друга, а это означает, что заинтересованные стороны, в принципе, могут заставить провайдеров раскрыть имена их владельцев и привлечь последних к юридической ответственности.
Поэтому логически закономерным было появление последовательно реализованной Р2Р-идеологии, такой, как Freenet. Йен Кларк и его единомышленники разработали полностью децентрализованную, распределенную и самореплицируемую модель сети. Freenet, как и предшественники, базируется на интернете, но, в отличие от них, скрывает всякие следы передачи данных по завершении сеанса связи между компьютерами. При контакте компьютеры со специально установленным ПО превращаются в "узлы" Freenet. Когда файл выставляется на таком узле, он шифруется и копируется на несколько соседних узлов, которые связываются непосредственно. Но всякий узел имеет информацию только о части Freenet.
Каждому документу присваивается цифровой ключ, криптографически связанный с его названием, и поиск осуществляется по этому ключу. Запрос передается по цепочке узлов, пока не будет найден искомый документ, и затем по этой же цепочке документ передается на первый узел, оставляя на промежуточных узлах свою копию. Так что чем больше запросов делается через сеть Freenet, тем быстрее осуществляется поиск нужного документа. При этом абсолютно невозможно определить, из какого места сети сделан запрос и откуда был передан искомый файл. А поскольку каждый запрос генерирует новые копии документов, то любые попытки цензуры оказываются саморазрушающимися. В сети Freenet можно не только скачивать пиратские копии музыки или видео, но вполне реализовать "свободу слова", например, критиковать власть имущих без опасения преследований с их стороны.
Многие видят в технологии Р2Р и Freenet начало революционного переворота в развитии интернета, последствия которого пока только угадываются. Но социальные проблемы уже очевидны: информационная свобода легко превращается в информационный произвол, и никто не гарантирован от игнорирования его собственных авторских прав, от распространения о нем клеветнической информации или при его посредничестве, например, детской порнографии и т. д. Кроме того, организация такой сети как-то очень уж напоминает принцип организации разного рода тайных сообществ, например, "тройками". Но до сих пор ни одна тайная организация не обходилась без своего "великого магистра", "фюрера" или "пахана". Застрахована ли Freenet от спонтанной виртуальной "пирамидизации"? Или это очередная эгалитаристская утопия?
Сергей САНЬКО
Горячие темы