Тем не менее часть информации оказывается явно лишней, и в первую очередь это рекламные баннеры -- своеобразная Internet-валюта. В данном вопросе на помощь придут программы-фильтры. Они бывают двух видов: модули--дополнения к броузеру и промежуточный кэш или локальный proxy-сервер. В любом случае программа перехватывает HTTP-запросы, просматривает HTML-код и пытается вычленить и предотвратить загрузку лишней информации, например фоновых рисунков, баннеров и т. д. Лично я предпочитаю фильтры в форме proxy-сервера как более универсальные, однако они несколько сложнее в настройке. Важно другое -- как именно они вычленяют ненужные материалы. Некоторые фильтры, например Proxomitron (proxomitron.cjb.net) и Naviscope (http://www.naviscope.com/), проверяют URL и/или название гиперссылки на наличие определенных слов, таких, как ad, click, или полных адресов рекламных узлов. Другие, вроде NetSoniq (http://www.web3000.com/), игнорируют любые изображения заданных размеров.
В любом случае "универсального оружия" вы не получите, даже несмотря на возможность пополнения списка подозрительных симптомов. Тем не менее эффект от использования программ-фильтров хоть и не велик, но заметен. Например, за несколько часов "вялой" работы в Internet легко можно заблокировать 100--150 баннеров. Если учесть, что это в основном анимированные GIF-изображения, размер которых нередко составляет 20 KB, то экономится около получаса (для модемного соединения).
Правда, здесь есть один морально-этический аспект, о котором просто нельзя не упомянуть. С одной стороны, отношение к рекламе -- дело сугубо личное. С другой, именно реклама нередко обеспечивает бесплатность тех или иных Internet-услуг, в том числе и некоторого программного обеспечения. Если в один прекрасный день мы все откажемся от созерцания рекламы, то многие Web-узлы попросту закроются или сделают свои услуги по-настоящему платными.
4. Ускорение Web-броузинга.
Не претендуя на исчерпывающее изложение, укажу только несколько наиболее популярных способов: локальный DNS; программы-акселераторы, обеспечивающие упреждающую загрузку Web-страниц; автономный броузинг.
Организация локального DNS (Domain Name System) позволит быстро преобразовать описательный URL (повторно посещаемого Web-узла) в 4-байтовый IP-адрес, тогда как обычно для этого броузер обращается в Internet. Чаще всего такая функция встраивается в фильтры и другие Web-ускорители. Оценить выигрыш от использования этой возможности весьма затруднительно, хотя понятно, что он есть.
Web-акселераторы якобы ускоряют Web-серфинг благодаря тому, что выгружают следующие страницы, пока вы изучаете текущую. Идея вроде бы понятна: вы затрачиваете некоторое время на просмотр страницы, а ваш модем не простаивает ни секунды, принимая те данные, которые, возможно, понадобятся в следующий момент. Однако проблема состоит в том, что современные Web-страницы просто напичканы гиперссылками, в том числе и совершенно бесполезными -- какой вы заинтересуетесь в следующий момент?
Что действительно повышают такие программы, так это трафик: на просматриваемом узле, на сервере провайдера и вообще в Internet (при этом весь мусор сваливается на жесткий диск вашего компьютера). Понятно, что так или иначе это может негативно сказаться на скорости броузинга. Тут дело даже не в том, что лично вы сможете перегрузить канал, а в общем (цивилизованном) отношении к работе в Internet. Поэтому современные Web-акселераторы обычно придерживаются более интеллектуальной стратегии. Например, NetSoniq и Webcelerator (http://www.webcelerator.com/) могут загружать информацию с тех гиперссылок, которые вы уже выбирали, -- это очень удобно, если у вас есть любимые регулярно посещаемые узлы, например новостные, аналитические и т. д. Naviscope придерживается другой методики -- упреждает загрузку только тех ссылок, в названии которых содержатся ключевые слова. Список слов можно пополнять, а по умолчанию используется только одно -- Next, которое, например, интенсивно применяется на страницах поисковых машин. Naviscope также подсчитывает время, сэкономленное за счет предварительной загрузки, и отображает его в окне статистики. Например, всего за два посещения http://www.davecentral.com/ мне удалось сэкономить около 5 мин.
Некоторые Web-акселераторы также организуют собственный кэш страниц, не доверяя броузерам решения о необходимости обновления их содержимого. Кстати, раз уж речь зашла о кэше, то им также надо уметь пользоваться. Например, если вам понадобилась информация, которую вы недавно видели в Web, вполне вероятно, что она все еще находится на жестком диске вашего компьютера. Ее можно найти даже без соединения с Internet: в Internet Explorer включите опцию Work Offline (меню File), откройте панель History и поищите нужную информацию по дате, URL или иным признакам. Другие броузеры предоставляют аналогичные возможности.
Автономные броузеры отчасти похожи на кэш (в том, что сохраняют информацию на жестком диске для дальнейшего просмотра), отчасти -- на Web-акселераторы (в том, что самостоятельно перебирают гиперссылки и максимально используют пропускную способность Internet-канала). С их помощью вы можете создавать на своем компьютере копии целых Web-узлов или их разделов, а также выгружать файлы определенных типов. Большинство подобных программ позволяют ограничивать глубину просмотра гиперссылок и количество загружаемых файлов, одновременно устанавливать несколько соединений и гибко планировать свою работу, в том числе автоматически активизироваться (например, ночью, когда снижаются почасовые расценки на Internet) и отключаться.
Один из лучших и наиболее популярных автономных броузеров -- условно-бесплатная программа Teleport Pro (http://www.tenmax.com/), однако имеются и очень приличные и при этом полностью бесплатные программы вроде WebCopier (home.columbus.rr.com/mklimov/). На самом деле называть их броузерами не очень корректно, хотя некоторые программы позволяют просматривать Web-страницы в своем окне за счет использования ядра Internet Explorer или Netscape Navigator. Они не только не конкурируют с броузерами, но и в общем-то не предназначены для ежедневного использования. Они могут пригодиться для работы с онлайновыми справочниками и библиотеками вроде MSDN, а также с некоторыми новостными и информационными узлами.
Следует иметь в виду, что автономные броузеры относятся к классу так называемых Internet-роботов, и администраторы некоторых Web-узлов не приветствуют их применения: одни из-за трафика, другие по более меркантильным соображениям (например, организаторы http://www.pcguide.com/ предпочитают распространять копию своего узла на CD-ROM). Хотя практически все автономные броузеры умеют обходить защиту подобного рода, решение об использовании этой возможности -- на вашей совести.
5. Применение программ-ассистентов.
Каждая конкретная задача, будь то дозвон до провайдера или работа с электронной почтой, может решаться более или менее эффективно. Например, мы уже знакомили читателей с проблемами поиска информации в Internet ("Компьютерное Обозрение", # 17--18, 1999). Кстати, как показывают последние исследования, ситуация с поисковыми машинами только ухудшается: ни одна из них уже не покрывает даже 16% Web. В связи с этим применение метапоисковых средств и в первую очередь программ--поисковых агентов становится все актуальнее. Кстати, они способны повысить эффективность не только самого поиска информации, но и использования Internet-канала -- за счет одновременной рассылки запроса на несколько машин, многопоточной верификации найденных ссылок и автоматической загрузки релевантных страниц на локальный диск.
Впрочем, Internet продолжает развиваться, и при этом в ней появляются и новые полезные сервисы. Например, недавно один из лучших российских поисковиков Яndex стал предоставлять услугу под названием "подписка на запрос". Суть его вкратце такова: ваш запрос сохраняется на сервере, и по мере обнаружения новых релевантных ссылок вы будете получать их (или просто уведомление) по электронной почте.
Примерно такая же ситуация с FTP-клиентами. Наверняка многим доводилось выгружать файлы средствами броузера, а после того как соединение обрывалось, начинать все сызнова. Такие популярные программы, как WS_FTP Pro, CuteFTP и FTP Voyager (все условно-бесплатные), умеют автоматически восстанавливать соединение, "докачивать" файлы, а некоторые даже выполнять поиск и выгружать файлы несколькими фрагментами (имеет смысл, если сервер ограничивает полосу пропускания для каждого соединения). Существуют и бесплатные утилиты с аналогичными возможностями, например SmartFTP (http://www.smartftp.com/).
Все же для большинства пользователей FTP-клиенты -- чересчур громоздкие и слишком сложные программы. Гораздо проще различные менеджеры--ассистенты выгрузки, среди которых наиболее известны GetRight и NetVampire ("Компьютерное Обозрение", # 25, 1999). Достаточно только перетянуть гиперссылку на их пиктограмму, а все остальное они сделают сами, в том числе и разорвут соединение по окончании работы. Интересная программа Download Accelerator (http://www.lidan.com/) встраивается непосредственно в броузер и заменяет собой стандартный модуль выгрузки файлов. В результате вы получаете возможность "докачки" после обрыва связи, а в некоторых случаях -- даже ускорите процесс за счет организации нескольких соединений, правда, при этом вы должны созерцать рекламный баннер.
Как видите, средств оптимизации работы в Internet довольно много, хотя эффект от использования некоторых из них не столь очевиден. Зато вы не только уменьшите затраты на Internet, но и сэкономите собственное время. И всего-то, что от вас требуется, -- разобраться в некоторых вопросах и выгрузить подходящее программное обеспечение. В этой статье основной упор делался не на описание конкретных утилит, а на разъяснение основных методик. Любая онлайновая библиотека программного обеспечения предложит вам на выбор десятки средств, при том что все больше хороших программ начинают распространяться бесплатно.
Источник: mcgs.narod.ru